Ich habe Fragen, die vom jüngsten Rekrutierungsskandal bei Amazon inspiriert wurden, bei dem ihnen die Diskriminierung von Frauen in ihrem Rekrutierungsprozess vorgeworfen wurde. Mehr Infos hier :
Die Spezialisten für maschinelles Lernen von Amazon.com Inc haben ein großes Problem aufgedeckt: Ihre neue Rekrutierungs-Engine mochte keine Frauen.
Das Team hatte seit 2014 Computerprogramme baut auf Überprüfung Bewerber fortgesetzt mit dem Ziel , für Top - Talente die Suche nach Mechanisierung ...
... Die experimentellen Unternehmen Einstellung Werkzeug verwendete künstliche Intelligenz Job Kandidaten Noten von eins bis fünf Sterne bis hin zu geben , ...
... Bis 2015 stellte das Unternehmen jedoch fest, dass sein neues System keine Kandidaten für Softwareentwicklerjobs und andere technische Stellen geschlechtsneutral bewertet.
Dies liegt daran, dass die Computermodelle von Amazon darauf trainiert wurden, Bewerber zu überprüfen, indem Muster in Lebensläufen beobachtet wurden, die dem Unternehmen über einen Zeitraum von 10 Jahren vorgelegt wurden. Die meisten kamen von Männern, ein Spiegelbild der männlichen Dominanz in der Technologiebranche. (Eine Grafik zu geschlechtsspezifischen Aufschlüsselungen in der Technik finden Sie hier :) Tatsächlich hat sich das Amazon-System selbst beigebracht, dass männliche Kandidaten vorzuziehen sind. Es bestrafte Lebensläufe, die das Wort "Frauen" enthielten, wie im "Kapitän des Frauenschachclubs". Und es stufte Absolventen von zwei Frauenhochschulen herab, so die mit der Angelegenheit vertrauten Personen. Sie gaben nicht die Namen der Schulen an.
Amazon hat die Programme so bearbeitet, dass sie für diese speziellen Begriffe neutral sind. Dies sei jedoch keine Garantie dafür, dass die Maschinen keine anderen Methoden zur Sortierung von Kandidaten entwickeln würden, die sich als diskriminierend erweisen könnten.
Das Unternehmen in Seattle löste das Team schließlich Anfang letzten Jahres auf, weil Führungskräfte die Hoffnung auf das Projekt verloren hatten.
Das Experiment des Unternehmens bietet eine Fallstudie zu den Grenzen des maschinellen Lernens.
... Informatiker wie Nihar Shah, der an der Carnegie Mellon University maschinelles Lernen unterrichtet, sagen, dass noch viel zu tun ist.
"Wie man sicherstellt, dass der Algorithmus fair ist, wie man sicherstellt, dass der Algorithmus wirklich interpretierbar und erklärbar ist - das ist noch ziemlich weit weg", sagte er.MASCULINE LANGUAGE
[Amazon] hat ein Team im Engineering-Hub von Amazon in Edinburgh gegründet, das auf rund ein Dutzend Mitarbeiter angewachsen ist. Ihr Ziel war es, eine KI zu entwickeln, die das Web schnell durchsuchen und Kandidaten finden kann, die es wert sind, rekrutiert zu werden, sagten die mit der Angelegenheit vertrauten Personen.
Die Gruppe erstellte 500 Computermodelle, die sich auf bestimmte Aufgaben und Standorte konzentrierten. Sie lehrten jeweils, etwa 50.000 Begriffe zu erkennen, die in den Lebensläufen früherer Kandidaten auftauchten. Die Algorithmen lernten, Fähigkeiten, die bei IT-Bewerbern üblich waren, wenig Bedeutung zuzuweisen, wie z. B. die Fähigkeit, verschiedene Computercodes zu schreiben.
Stattdessen bevorzugte die Technologie Kandidaten, die sich selbst mit Verben beschrieben, die häufiger in Lebensläufen männlicher Ingenieure zu finden sind, wie z "hingerichtet" und "gefangen genommen", sagte eine Person.
Angenommen, ich möchte ein statistisches Modell erstellen, um einige Ergebnisse aus persönlichen Daten vorherzusagen, z. B. ein Fünf-Sterne-Ranking, um die Rekrutierung neuer Mitarbeiter zu unterstützen. Angenommen, ich möchte auch Diskriminierung aufgrund des Geschlechts als ethische Einschränkung vermeiden. Bei zwei streng gleichen Profilen, abgesehen vom Geschlecht, sollte die Ausgabe des Modells gleich sein.
Sollte ich das Geschlecht (oder damit korrelierte Daten) als Eingabe verwenden und versuchen, deren Auswirkungen zu korrigieren, oder diese Daten nicht verwenden?
Wie überprüfe ich das Fehlen einer Diskriminierung des Geschlechts?
Wie korrigiere ich mein Modell für Daten, die statistisch diskriminierend sind, aber aus ethischen Gründen nicht sein sollen?