Es ist nicht anzunehmen, dass die Entwicklung der KI ursprünglich durch den Wunsch motiviert war, Menschen zu helfen. Es gibt viele plausible Erklärungen, die gleichermaßen schwer zu beweisen oder zu widerlegen sind.
- Lassen Sie sich eine futuristische Idee einfallen, bevor es jemand anderes tut
- Erwerben Sie Macht, bevor Sie sich einen Feind oder einen zukünftigen potentiellen Feind vorstellen
- Weil es möglich sein könnte
- Zum Spass
- Weil das US-Verteidigungsministerium es wahrscheinlich auf unbestimmte Zeit finanzieren würde
- Es ist ein guter Karriereschritt
- Um zu beweisen, dass das menschliche Gehirn nichts besonders Wunderbares ist
- Wir wurden eingestellt und bekamen etwas Geld, und es schien ein guter Weg, es auszugeben
- Es wurde beschlossen, es weiter zu verfolgen, aber keiner von uns kann sich wirklich daran erinnern, warum
Es gibt auch einige schlecht definierte beschreibende Wörter in dieser Frage, obwohl es schwierig sein kann, bessere Wörter zu finden, um sie zu ersetzen. Wie würden wir diese formalisieren?
- Nach ihren besten Fähigkeiten (die intelligenten Systeme) --- Auf welche Weise würden wir Fähigkeiten messen und die Ergebnisse mit ihnen vergleichen? Wir sagen zu einem Studenten: "Sie wenden sich nicht an", aber das ist kaum eine wissenschaftliche Beobachtung. Es ist ein etwas willkürliches Urteil, das auf einer Leistungsprojektion beruht, die nach dem Bewertungssystem eines Dritten und seiner Anwendung durch andere fehlbare Parteien nicht erfüllt wurde.
- Sorgfältiges Treffen von Entscheidungen --- Fürsorge impliziert Ziele, die selbst objektiv sind. Wir haben noch keine fortschrittliche Computerplattform dokumentiert, die ein ethisches System codiert, das auf ein abstraktes Bewusstsein für Situationen angewendet wird, wie im Fall eines ethischen Menschen, wobei die Pflege eine realistische Bedeutung erhält. Dass ein NAND-Gatter zuverlässig eine NAND-Funktion ausführt oder ein Algorithmus unter bestimmten Bedingungen mit einer bestimmten Datensatzgröße konvergiert, ist kaum eine vollständig erweiterte Bedeutung dessen, was wir sind, wenn wir vorsichtig sind.
- Erklärbar --- Dies ist auch mehrdeutig. Im Extremfall ist die Konvergenz eines Parametersatzes während der Konvergenz eines künstlichen Netzwerks eine Erklärung, die einzelnen Werte werden jedoch nicht erläutert. Auf der anderen Seite ist ein vollständiger Bericht über eine Hypothese, ein experimentelles Design, die Auswahl einer Reihe von Bedingungen, Analysen, Ergebnisse und Schlussfolgerungen noch keine erschöpfende Erklärung. Ein solcher Bericht darf nur weniger als 1% der Informationen enthalten, die die Anwendung der menschlichen Intelligenz auf die im Bericht dargelegten Forschungsergebnisse beschreiben.
Die frühen Arbeiten zu künstlichen Netzwerken wurden in AI-Journalen der frühen 1990er Jahre dafür kritisiert, dass sie nicht auf der Grundlage der Rückverfolgbarkeit erklärbar sind. Produktionssysteme (regelbasiert) hinterließen Audit-Spuren der angewendeten Regeln und der Ergebnisse der vorherigen Regeln, sodass jemand einen schriftlichen Nachweis des Ergebnisses erstellen konnte. Dies war von begrenztem Nutzen.
Wenn Lenkräder aus Fahrzeugen entfernt werden und in einigen Regionen Gesetze gegen menschliches Fahren erlassen werden, liegt dies nicht daran, dass die Sicherheitsnachweise in einer Million Szenarien ausgeschrieben wurden. Dies liegt daran, dass die Verteilung der registrierten Unfalltoten, Verstümmelungen und Zerstörungen von Eigentum, die von einem in einem bestimmten Fahrzeugtyp installierten KI-Fahrer über einen hinreichend überzeugenden Zeitraum verursacht wurden, die Sicherheit dieser Verteilung für menschliche Fahrer anzeigt. Irgendwann wird jemand in einem Gerichtssaal oder einer gesetzgebenden Versammlung dies oder ein Äquivalent dazu sagen.
Wenn wir das Fahren von Menschen unter diesen festgelegten Bedingungen für die betreffende Region nicht verbieten, verurteilen wir X Männer, Frauen, Kinder sowie ältere Fußgänger und Passagiere pro Jahr zu einem vorzeitigen Tod.
Das Verstehen des Wirkmechanismus und der Entscheidungen, die für bestimmte Fälle getroffen wurden, ist nützlich, aber warum dies nützlich ist, ist ebenso unbestimmt wie der Grund, warum die KI zu einem tragfähigen Arbeits- und Lernfeld wurde.
- Es wäre interessant, konkurrierende KI-Systeme auf quantifizierbare Weise zu vergleichen.
- Es wäre von großem akademischen Wert, mehr über Intelligenz zu verstehen.
- Eine bessere Erklärung ergibt ein gutes Papier.
- Ich kritzelte eines Tages und kam zu einem Weg, eine bestimmte Klasse von Systemen zu erklären, die schlecht erklärt zu sein schienen.
Obwohl die Nichtprüfbarkeit von KI-Systemen bei gesetzgeberischen und gerichtlichen Ereignissen auftreten kann, werden viele Entscheidungen auf der Grundlage der Art und Weise getroffen, wie statistische Auswertungen veröffentlicht und wahrgenommen werden. Diejenigen, die darauf bestehen, dass die Systeme auf eine Weise funktionieren, die erklärt werden kann, werden wahrscheinlich bewusst oder unbewusst von einem Interesse an der Wahrnehmung motiviert sein, dass die Dominanz der Menschen ein offenkundiges Schicksal ist. Es ist mehr als nur eine Ironie, dass viele derjenigen, die den Interessen der USA und der UdSSR während des Kalten Krieges geholfen haben, von den Nachfolgern beider Kalten Krieges als Terroristenführer angesehen werden.
Die damit verbundene und klarer zu beantwortende Frage ist, ob von einem intelligenten Helfer erwartet werden kann, dass er auf unbestimmte Zeit ein Helfer bleibt. Die Ermittlungen gegen ewig-intelligente-ewig-Helfer dauern an und sind für alle von Interesse, von Science-Fiction-Autoren und Drehbuchautoren bis hin zu Think-Tankern von Militärpartnern.