Nein , mit einem aber . Wir können kreative und dennoch ethische Probleme lösen, wenn das System über ein vollständiges Ethiksystem verfügt. Andernfalls ist Kreativität standardmäßig unsicher.
Man kann KI-Entscheidungsansätze in zwei Typen einteilen: interpolative Denker und extrapolative Denker.
Interpolative Denker lernen, zu klassifizieren und nachzuahmen, woraus sie lernen, und versuchen nicht, vernünftige Ergebnisse außerhalb ihres Trainingsbereichs zu erzielen. Sie können sich diese als Interpolation zwischen Trainingsbeispielen vorstellen und alle mathematischen Garantien und Vorbehalte als andere statistische Techniken nutzen.
Extrapolative Denker lernen, die zugrunde liegenden Prinzipien zu manipulieren, wodurch sie diese Prinzipien auf bisher nicht berücksichtigte Weise kombinieren können. Das relevante Feld für die Intuition ist hier die numerische Optimierung , von der das einfachste und bekannteste Beispiel die lineare Programmierung ist , und nicht die statistischen Felder, die das maschinelle Lernen hervorgebracht haben. Sie können sich vorstellen, dass sie über Schulungsbeispiele hinaus extrapoliert werden (in der Tat erfordern viele von ihnen nicht einmal Schulungsbeispiele oder verwenden diese Beispiele, um zugrunde liegende Prinzipien abzuleiten).
Das Versprechen extrapolativer Denker ist, dass sie diese „lateralen“ Lösungen viel schneller finden können, als es die Menschen könnten. Das Problem bei diesen extrapolativen Denkern ist, dass sie nur die gesprochenen Prinzipien verwenden, keine unausgesprochenen, die zu offensichtlich scheinen, um sie zu erwähnen.
Ein Attribut von Lösungen für Optimierungsprobleme ist, dass der Merkmalsvektor oft in irgendeiner Weise "extrem" ist. Bei der linearen Programmierung ist mindestens ein Scheitelpunkt des realisierbaren Lösungsraums optimal, und so finden einfache Lösungsmethoden einen optimalen Scheitelpunkt (der von Natur aus als Scheitelpunkt fast nicht realisierbar ist).
Als weiteres Beispiel wird die Minimaltreibstofflösung für das Bewegen eines Raumfahrzeugs von einer Position zur anderen als „ Knall-Knall“ bezeichnet , bei der Sie das Fahrzeug am Anfang und am Ende der Flugbahn so schnell wie möglich beschleunigen und dazwischen mit maximaler Geschwindigkeit ausrollen .
Während eine Tugend, wenn das System richtig verstanden wird (Bang-Bang ist in vielen Fällen optimal), ist dies katastrophal, wenn das System falsch verstanden wird. Mein Lieblingsbeispiel ist hier Dantzigs Diätproblem (Diskussion beginnt auf Seite 5 des PDF), wo er versucht, seine Diät mithilfe von Mathematik zu optimieren. Unter seiner ersten Bedingung soll er 500 Gallonen Essig pro Tag trinken. Unter seiner zweiten, 200 Brühwürfel. Unter seinem dritten, zwei Pfund Kleie. Die Überlegungen, die diese offensichtlich schlechten Ideen hervorrufen, sind nicht im System verankert, und so schlägt das System sie unschuldig vor.
Wenn Sie das Wissen und die Werte, mit denen eine Person diese Pläne beurteilt, vollständig in die KI kodieren können, sind extrapolative Systeme genauso sicher wie diese Person. Sie werden in der Lage sein, die falschen Arten von extremen Plänen zu erwägen und abzulehnen und Ihnen die richtigen Arten von extremen Plänen zu hinterlassen.
Wenn Sie dies jedoch nicht können, ist es sinnvoll, keinen extrapolativen Entscheidungsträger und stattdessen einen interpolativen zu erstellen. Das heißt, anstatt sich zu fragen, wie ich Ziel X am besten erreiche. es fragt sich "Was würde eine Person in dieser Situation tun?". Letzteres mag bei der Erreichung von Ziel X viel schlimmer sein, hat jedoch ein viel geringeres Risiko, andere Ziele zu opfern, um X zu erreichen.