Es hat sich in den letzten Interesse uptick gewesen in e X plainable A Syntetisch I ntelligence (XAI). Hier ist die Mission von XAI, wie auf der DARPA-Seite angegeben :
Das Explainable AI (XAI) -Programm zielt darauf ab, eine Reihe von Techniken des maschinellen Lernens zu erstellen, die:
- Erstellen Sie erklärbarere Modelle unter Beibehaltung einer hohen Lernleistung (Vorhersagegenauigkeit). und
- Ermöglichen Sie menschlichen Benutzern, die aufstrebende Generation künstlich intelligenter Partner zu verstehen, angemessen zu vertrauen und effektiv zu verwalten.
Der Artikel der New York Times Kann man KI lehren, sich selbst zu erklären? leistet gute Arbeit darin, die Notwendigkeit von XAI aus Sicht des menschlichen Interesses zu erklären und einen Blick auf die Techniken zu werfen, die für diese entwickelt werden. Die Kraft hinter der XAI-Bewegung scheint sich auf das (aufstrebende?) Konzept des Rechts auf Erklärung zu konzentrieren , dh auf die Anforderung, dass KI-Anwendungen, die über ihre Entscheidungen das menschliche Leben erheblich beeinflussen, den Stakeholdern die Faktoren / Gründe erklären können, die dazu führen zu dieser Entscheidung.
Wie ist das Recht auf Erklärung angesichts der aktuellen Standards, nach denen wir uns gegenseitig zur Rechenschaft ziehen, angemessen?