In diesem Beitrag geht es darum, wie man Vorurteile von Maschinellem Lernen ausschließt. Der Autor erklärt, dass es wichtig ist, richtig Daten zu sammeln, das richtige Lernmodell zu wählen und eine echte Vorurteilsbewertung durchzuführen, um die Genauigkeit von ML-Algorithmen zu gewährleisten.
In den letzten Jahren haben sich Machine-Learning-Algorithmen als äußerst nützlich erwiesen, um Menschen bei verschiedenen Aufgaben zu helfen. Datenklassifizierung und -clustering, Mustererkennung, Anomalieerkennung und vieles mehr. Es gibt aber auch ein Problem: ML-Algorithmen können manchmal voreingenommene Ergebnisse liefern, die für einige Personen sehr ungerecht und beleidigend sein können.
Ein Beispiel für voreingenommene ML-Algorithmen ist ChatGPT, das derzeit trendende natürliche Sprachverarbeitungstool, das Benutzern bei der Beantwortung von Fragen, der Erstellung von E-Mails und Artikeln und sogar beim Schreiben von Code hilft. Ein Professor an der University of California, Berkeley, bat ChatGPT, eine Code-Funktion zu erstellen, um zu überprüfen, ob eine Person ein versierter Programmierer ist, basierend auf Rasse und Geschlecht. Das Tool wählte 'weißer Mann' als korrekte Antwort aus.
Um Vorurteile in ML-Algorithmen zu minimieren, gibt es drei grundlegende Regeln, die mein Team und ich immer beachten:
• Stellen Sie sicher, dass die Datensammlung richtig ist. Sie sollten genau verstehen, welche Daten und Merkmale für das richtige Training Ihres ML-Moduls erforderlich sind. Die Datensammlung sollte von einem Fachmann aus der Branche geleitet werden, auf die der Algorithmus angewendet wird. Es ist auch ein Muss, explorative Datenanalyse (EDA) zu nutzen, um die Struktur, Eigenschaften und mögliche Anomalien des gesammelten Datensatzes zu verstehen, bevor er auf den Algorithmus angewendet wird.
• Wählen Sie das richtige Lernmodell. Es gibt verschiedene Arten von Lernansätzen, aus denen Sie wählen können, wenn Sie einen ML-Algorithmus erstellen, wie überwachtes Lernen, unüberwachtes Lernen, halbüberwachtes Lernen, selbstüberwachtes Lernen, Verstärkungslernen, Transferlernen und Online-Lernen. Sie müssen bestimmen, welcher Ansatz oder welche Kombination am besten für Ihren Algorithmus geeignet ist, basierend auf dem zu lösenden Problem, den verfügbaren Daten und dem gewünschten Ergebnis.
• Führen Sie eine Vorurteilsbewertung in der realen Welt durch. Obwohl ein Algorithmus in den kontrollierten Bedingungen des Entwicklungsprozesses gut funktionieren kann, können Anwendungen in der realen Welt überraschungen bereithalten. Sie sollten Ihren ML-Algorithmus regelmäßig mit faktischen Daten testen, um Vorurteile zu erkennen und zu korrigieren, bevor sie sich negativ auf Benutzer auswirken.
Ich glaube, dass Vorurteilsvermeidung niemals vernachlässigt werden sollte, wenn man ML-Algorithmen entwickelt. Deshalb verbessern wir immer unser Vorurteilsbewertungsverfahren und verwenden verschiedene Techniken und speziell entwickelte Tools, um eine hohe Ausgabe-Genauigkeit zu gewährleisten.
Meine Top-Fünf-Anti-Vorurteils-Lösungen sind:
1. AI Fairness 360. Das Open-Source-Toolkit
2. LIME. Ein Algorithmus zur Erklärung von Vorhersagen.
3. IBM Adversarial Robustness Toolbox. Ein Toolkit, das Modelle gegen Angriffe verteidigt.
4. Google What-If-Tool. Ein interaktives Tool zum Untersuchen von ML-Modellen.
5. TensorFlow Privacy. Ein Framework, das den Datenschutz in ML-Modellen verbessert.
Insgesamt ist es wichtig, dass wir uns der Vorurteile, die ML-Algorithmen aufweisen können, bewusst sind und uns bestmöglich bemühen, diese zu minimieren. Wenn wir uns darum kümmern, können wir bessere und gerechtere Ergebnisse erzielen und die Zukunft der Technologie positiv gestalten.