Ist künstliche Intelligenz anfällig für Hacking?
Kehren Sie Ihre Frage für einen Moment um und überlegen Sie:
Was würde KI im Vergleich zu jeder anderen Art von Software zu einem geringeren Hacking-Risiko machen?
Letztendlich ist Software Software und es wird immer Bugs und Sicherheitsprobleme geben. KIs sind allen Problemen ausgesetzt, denen KI-fremde Software ausgesetzt ist, da KI ihr keine Immunität verleiht.
Bei AI-spezifischen Manipulationen besteht für AI die Gefahr, dass falsche Informationen eingegeben werden. Im Gegensatz zu den meisten Programmen wird die Funktionalität von AI durch die Daten bestimmt, die es verbraucht.
Als Beispiel aus der Praxis hat Microsoft vor einigen Jahren einen KI-Chatbot namens Tay erstellt. Es dauerte weniger als 24 Stunden, bis die Leute von Twitter sagten: "Wir werden eine Mauer bauen, und Mexiko wird dafür bezahlen."
(Das Bild stammt aus dem unten verlinkten Verge-Artikel. Ich beanspruche keine Gutschrift dafür.)
Und das ist nur die Spitze des Eisbergs.
Einige Artikel über Tay:
Stellen Sie sich vor, dass dies kein Chat-Bot war. Stellen Sie sich vor, dass dies ein wichtiges Stück KI aus einer Zukunft war, in der KI für Dinge wie das Nichttöten der Insassen eines Autos (dh eines selbstfahrenden Autos) oder das Nichttöten eines Patienten verantwortlich ist der Operationstisch (dh irgendeine Art von medizinischer Hilfsausrüstung).
Zugegeben, man würde hoffen, dass solche KIs besser gegen solche Bedrohungen abgesichert sind, aber wenn man annimmt, dass jemand einen Weg gefunden hat, solche KI-Massen an falschen Informationen zu füttern, ohne bemerkt zu werden (schließlich hinterlassen die besten Hacker keine Spur), könnte das wirklich bedeuten der Unterschied zwischen Leben und Tod.
Stellen Sie sich am Beispiel eines selbstfahrenden Autos vor, ob falsche Daten dazu führen könnten, dass das Auto den Eindruck erweckt, dass es auf einer Autobahn einen Nothalt machen muss. Eine der Anwendungen für die medizinische KI sind Entscheidungen über Leben oder Tod in der Notaufnahme. Stellen Sie sich vor, ein Hacker könnte die Waage zugunsten einer falschen Entscheidung kippen.
Wie können wir das verhindern?
Letztendlich hängt das Ausmaß des Risikos davon ab, wie abhängig Menschen von KI werden. Wenn Menschen beispielsweise das Urteil einer KI fällen und es niemals in Frage stellen würden, würden sie sich jeder Art von Manipulation öffnen. Wenn sie jedoch die Analyse der KI nur als einen Teil des Puzzles verwenden, wird es einfacher, zu erkennen, wenn eine KI falsch ist, sei es durch zufällige oder böswillige Mittel.
Glauben Sie im Falle eines medizinischen Entscheidungsträgers nicht nur der KI, führen Sie körperliche Tests durch und holen Sie sich auch einige menschliche Meinungen. Wenn zwei Ärzte mit der KI nicht einverstanden sind, werfen Sie die Diagnose der KI aus.
Im Falle eines Autos besteht eine Möglichkeit darin, mehrere redundante Systeme zu haben, die im Wesentlichen darüber abstimmen müssen, was zu tun ist. Wenn ein Auto mehrere KIs auf separaten Systemen hätte, die darüber abstimmen müssten, welche Maßnahmen er ergreifen soll, müsste ein Hacker mehr als nur eine KI ausschalten, um die Kontrolle zu erlangen oder eine Pattsituation zu verursachen. Wichtig ist, dass, wenn die AIs auf verschiedenen Systemen ausgeführt werden, die gleiche Ausnutzung auf einem anderen System nicht durchgeführt werden kann, was die Arbeitslast des Hackers weiter erhöht.