Wie ist das „Recht auf Erklärung“ angemessen?


8

Es hat sich in den letzten Interesse uptick gewesen in e X plainable A Syntetisch I ntelligence (XAI). Hier ist die Mission von XAI, wie auf der DARPA-Seite angegeben :

Das Explainable AI (XAI) -Programm zielt darauf ab, eine Reihe von Techniken des maschinellen Lernens zu erstellen, die:

  • Erstellen Sie erklärbarere Modelle unter Beibehaltung einer hohen Lernleistung (Vorhersagegenauigkeit). und
  • Ermöglichen Sie menschlichen Benutzern, die aufstrebende Generation künstlich intelligenter Partner zu verstehen, angemessen zu vertrauen und effektiv zu verwalten.

Der Artikel der New York Times Kann man KI lehren, sich selbst zu erklären? leistet gute Arbeit darin, die Notwendigkeit von XAI aus Sicht des menschlichen Interesses zu erklären und einen Blick auf die Techniken zu werfen, die für diese entwickelt werden. Die Kraft hinter der XAI-Bewegung scheint sich auf das (aufstrebende?) Konzept des Rechts auf Erklärung zu konzentrieren , dh auf die Anforderung, dass KI-Anwendungen, die über ihre Entscheidungen das menschliche Leben erheblich beeinflussen, den Stakeholdern die Faktoren / Gründe erklären können, die dazu führen zu dieser Entscheidung.

Wie ist das Recht auf Erklärung angesichts der aktuellen Standards, nach denen wir uns gegenseitig zur Rechenschaft ziehen, angemessen?


Der Artikel Computer mit künstlicher Intelligenz (KI) sagt Nein: Warum es fair ist, KIs fair, rechenschaftspflichtig und transparent zu machen, bedeutet , dass Europa anderen Teilen der Welt bei der Ausarbeitung von Vorschriften zum Schutz von Menschen vor schlecht hergestellter oder verwendeter KI voraus ist . Diese Vorschriften sind jedoch etwas schwach: Sie gelten beispielsweise nicht für Fälle, in denen Menschen involviert sind oder deren Entscheidungen (abgesehen von den KI-Entscheidungen).
nbro

Antworten:


3

Wie ist das Recht auf Erklärung angesichts der aktuellen Standards, nach denen wir uns gegenseitig zur Rechenschaft ziehen, angemessen?

Kurz gesagt, es ist durchaus vernünftig.

Insbesondere erscheint es vernünftig, AI zur Rechenschaft zu ziehen und für die Erklärung der Entscheidung verantwortlich zu sein, weil

  • Der Mensch (in diesem Fall DARPA) hat sich entschieden, KI mit dem Geld der Steuerzahler zu schaffen, zu erheben und weiterzuentwickeln . Auch in unserer Gesellschaft werden Verantwortlichkeit und Verantwortung übernommen und zugewiesen, wenn Menschen zu einem bestimmten Zweck zusammenkommen (eine formelle Vereinbarung wie die Regierung oder auf andere Weise). Die Erwartung, dass die KI (die in unserem Namen Entscheidungen treffen wird) ihre Entscheidungen erklärt, scheint daher nur eine natürliche Erweiterung der derzeitigen Funktionsweise von Menschen zu sein .

  • Menschen haben ( zumindest im Allgemeinen ) keine Supermacht oder Ressourcen, um den Rest der Bevölkerung zu kontrollieren und zu manipulieren . Aber wenn sie es tun (wie unsere politischen Führer ), wollen wir, dass sie rechenschaftspflichtig sind.

  • In seltenen Fällen werden mächtige Menschen aufgrund von Dingen, die für jedermann zugänglich sind, mächtig , während die Supermacht der KI dies nicht sein wird. Unsere Zivilisation würde sich also sicherer und damit weniger unsicher fühlen, wenn eine KI die Tür nicht im Gesicht schließt, wenn Fragen gestellt werden.

Weitere Vorteile der KI, die eine Erklärung dafür liefern, wie eine Entscheidung getroffen wird

  • Viel einfacher zu debuggen und in der frühen Phase zu verbessern.

  • Kann weiter (und auf dem Weg) angepasst werden, um bestimmte Aspekte wie Sozialhilfe über Rentabilität usw. zu verbessern.


0

In der Arbeit Slave to the Algorithm? Warum ein "Recht auf Erklärung" wahrscheinlich nicht das Mittel ist, nach dem Sie suchen , behaupten die Autoren, dass das "Recht auf Erklärung" aus mindestens zwei Gründen wahrscheinlich kein vollständiges Mittel gegen algorithmische Schäden darstellt

  1. Es ist unklar, wann ein erklärungsbezogenes Recht ausgelöst werden kann

  2. Die gesetzlich vorgeschriebenen Erklärungen "aussagekräftige Informationen über die Logik der Verarbeitung" werden möglicherweise nicht von aktuellen (erklärbaren) KI-Methoden geliefert

Die Autoren kommen dann zu dem Schluss, dass das "Recht auf Erklärung" ablenkt , andere Gesetze der Allgemeinen Datenschutzverordnung der Europäischen Union, wie z

  1. Recht, vergessen zu werden
  2. Recht auf Datenübertragbarkeit
  3. Privatsphäre durch Design

könnte die Mängel des "Erklärungsrechts" ausgleichen.

Zusammenfassend ist das "Recht auf Erklärung" ein Versuch, die Bürger vor den möglichen unerwünschten Folgen des Einsatzes von KI-Methoden zu schützen. Es ist jedoch nicht fehlerfrei und es müssen möglicherweise klarere Rechte verkündet werden.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.