Wie könnte künstliche Intelligenz uns schaden?


50

Wir hören oft, dass künstliche Intelligenz Menschen schädigen oder sogar töten kann, was sich als gefährlich erweisen kann.

Wie könnte künstliche Intelligenz uns schaden?


6
Dies ist ein bisschen weit gefasst, da es viele Gründe und Szenarien gibt, in denen KI gefährlich werden könnte. Zum Beispiel, wie DuttaA oben vorschlägt, können Menschen intelligente Waffensysteme entwerfen, die entscheiden, auf welche Ziele sie abzielen. Dies ist eine echte Sorge, da es bereits möglich ist, enge KI zu verwenden. Geben Sie möglicherweise mehr Kontext zu den spezifischen Ängsten, die Sie verstehen möchten, indem Sie ein bestimmtes Anliegen zitieren oder verknüpfen, das Sie gelesen haben (verwenden Sie Bearbeiten ).
Neil Slater

4
@NeilSlater Ja, es könnte zu weit gefasst sein, aber ich denke, dass diese Antwort ai.stackexchange.com/a/15462/2444 einige plausible Gründe liefert. Ich habe die Frage bearbeitet, um die möglicherweise falsche Annahme zu entfernen.
Nr.

2
Geht es bei dieser Frage speziell um "Superintelligenz" oder AI im Allgemeinen? (Wenn beispielsweise hypothetische Superintelligenz vorliegt, dann ist das hypothetische " Kontrollproblem " ein Problem. Allerdings sind moderne automatisierte Waffensysteme weder superintelligent noch autonome Fahrzeuge, und diese können Menschen Schaden zufügen.)
DukeZhou

@DukeZhou Das OP erwähnte Superintelligenz ursprünglich und ausdrücklich nicht, aber ich nehme an, er bezog sich auf alles, was als KI angesehen werden kann, einschließlich einer SI.
Nr.

3
Fragen Sie zuerst, wie normale Intelligenz Ihnen schaden kann. Die Antwort ist dann die gleiche.
J ...

Antworten:


46

tl; dr

Es gibt viele triftige Gründe, aus denen Menschen Angst vor KI haben (oder sich besser um KI sorgen sollten). Nicht alle betreffen Roboter und apokalyptische Szenarien.

Um diese Bedenken besser zu veranschaulichen, werde ich versuchen, sie in drei Kategorien zu unterteilen.

Bewusste KI

Dies ist die Art von KI, auf die sich Ihre Frage bezieht. Eine superintelligente bewusste KI, die die Menschheit zerstören / versklaven wird. Dies wird uns meistens durch Science-Fiction gebracht. Einige bemerkenswerte Hollywood-Beispiele sind "The Terminator" , "The Matrix" , "Age of Ultron" . Die einflussreichsten Romane wurden von Isaac Asimov geschrieben und werden als "Roboterserie" bezeichnet (einschließlich "Ich, Roboter" , das auch als Film adaptiert wurde).

Die Grundvoraussetzung für die meisten dieser Arbeiten ist, dass sich die KI zu einem Punkt entwickelt, an dem sie sich bewusst wird und die Intelligenz der Menschen übertrifft. Während Hollywood-Filme sich hauptsächlich auf die Roboter und den Kampf zwischen ihnen und den Menschen konzentrieren, wird der eigentlichen KI (dh dem "Gehirn", das sie steuert) nicht genügend Aufmerksamkeit geschenkt. Als Randnotiz wird diese KI aufgrund der Erzählung normalerweise als Supercomputer dargestellt, der alles kontrolliert (so dass die Protagonisten ein bestimmtes Ziel haben). Die "mehrdeutige Intelligenz" (die meiner Meinung nach realistischer ist) wurde nicht ausreichend untersucht.

In der realen Welt konzentriert sich AI darauf, bestimmte Aufgaben zu lösen! Ein KI-Agent, der in der Lage ist, Probleme aus verschiedenen Bereichen zu lösen (z. B. das Verstehen von Sprache und das Verarbeiten von Bildern sowie das Fahren und ... - wie es Menschen tun), wird als allgemeine künstliche Intelligenz bezeichnet und ist erforderlich, damit KI "denken" und werden kann bewusst.

Realistisch gesehen sind wir weit entfernt von der allgemeinen künstlichen Intelligenz! Davon abgesehen gibt es keine Beweise dafür, warum dies in Zukunft nicht erreicht werden kann. Selbst wenn wir noch in den Kinderschuhen der KI stecken, haben wir derzeit keinen Grund zu der Annahme, dass sich die KI nicht zu einem Punkt entwickeln wird, an dem sie intelligenter ist als der Mensch.

KI mit böswilliger Absicht benutzen

Auch wenn eine KI, die die Welt erobert, noch weit davon entfernt ist, gibt es verschiedene Gründe, sich mit KI zu befassen , bei denen es sich nicht um Roboter handelt! Die zweite Kategorie, auf die ich mich noch etwas konzentrieren möchte, sind einige böswillige Verwendungen der heutigen KI.

Ich werde mich nur auf AI-Anwendungen konzentrieren, die heute verfügbar sind . Einige Beispiele für KI, die für böswillige Absichten verwendet werden können:

  • DeepFake : Eine Technik, mit der jemandem das Gesicht eines Videos einer anderen Person aufgezwungen wird. Dies hat in letzter Zeit bei Promi-Pornos an Popularität gewonnen und kann dazu verwendet werden, falsche Nachrichten und Falschmeldungen zu generieren . Quellen: 1 , 2 , 3

  • Durch die Verwendung von Massenüberwachungssystemen und Gesichtserkennungssoftware , die Millionen von Gesichtern pro Sekunde erkennen kann , kann AI für die Massenüberwachung verwendet werden. Auch wenn wir bei der Massenüberwachung an China denken, zählen viele westliche Städte wie London , Atlanta und Berlin zu den am meisten überwachten Städten der Welt . China ist einen Schritt weiter gegangen und hat das System der sozialen Kredite eingeführt , ein Bewertungssystem für Zivilisten, das offenbar aus George Orwells Seiten von 1984 hervorgeht.

  • Beeinflussenden Menschen durch Social Media . Abgesehen von der Erkennung des Benutzergeschmacks mit dem Ziel der gezielten Vermarktung und des Hinzufügens von Placements (eine gängige Praxis vieler Internetunternehmen), kann die KI (unter anderem) missbräuchlich zur Beeinflussung der Stimmabgabe eingesetzt werden. Quellen: 1 , 2 , 3 .

  • Hacken .

  • Militärische Anwendungen, zB Drohnenangriffe, Raketenzielsysteme.

Nebenwirkungen von AI

Diese Kategorie ist ziemlich subjektiv, aber die Entwicklung der KI kann einige nachteilige Nebenwirkungen haben. Der Unterschied zwischen dieser und der vorherigen Kategorie besteht darin, dass diese schädlichen Wirkungen nicht absichtlich hervorgerufen werden. Vielmehr treten sie mit der Entwicklung der KI auf. Einige Beispiele sind:

  • Arbeitsplätze werden überflüssig . Wenn die KI besser wird, werden viele Jobs durch KI ersetzt. Leider lässt sich nicht viel dagegen tun, da die meisten technologischen Entwicklungen diesen Nebeneffekt haben (z. B. haben landwirtschaftliche Maschinen dazu geführt, dass viele Landwirte ihren Arbeitsplatz verloren, viele Fabrikarbeiter durch Automatisierung ersetzt, Computer haben dasselbe getan).

  • Die Verzerrung unserer Daten verstärken . Dies ist eine sehr interessante Kategorie, da KI (und insbesondere neuronale Netze) nur so gut sind wie die Daten, auf denen sie trainiert werden, und die Tendenz haben, verschiedene Formen sozialer Vorurteile aufrechtzuerhalten und sogar zu verstärken, die bereits in den Daten vorhanden sind. Es gibt viele Beispiele für Netzwerke, die rassistisches und sexistisches Verhalten aufweisen. Quellen: 1 , 2 , 3 , 4 .


4
Ich verstehe nicht, warum "Jobs werden entlassen" ein ernstes Anliegen ist. Wie schön die Welt wäre, wenn niemand (oder zumindest die große Mehrheit der Menschen) nicht arbeiten müsste und sich stattdessen auf ihre Hobbys konzentrieren und das Leben genießen könnte.
Kukis

4
@kukis Wie kann man das Essen, das Haus usw. ohne Arbeit bekommen, es sei denn, man ist bereits reich? Ein Job bedeutet für die meisten Menschen Überleben.
Nr.

6
Angesichts der Tatsache, dass Arbeitsplätze überflüssig werden, scheint es, als könnten wir etwas dagegen tun, dh unsere Wirtschaftsmodelle überarbeiten, um nicht darauf angewiesen zu sein, dass Menschen Arbeitsplätze haben. Ich meine, wenn unsere Wirtschaftssysteme zusammenbrechen würden, wenn sie mit reichlich billigen Arbeitskräften überflutet würden, dann wären sie offensichtlich fehlerhaft. Und da wir davon ausgehen, dass dieser Fehler in absehbarer Zeit gefährlich wird, sollte er behoben werden.
Nat

2
Ein weiteres Beispiel dafür, wo KI größere Probleme verursachen könnte, ist der Aktienhandel. Die überwiegende Mehrheit der Aktiengeschäfte wird heutzutage von immer wettbewerbsfähigeren KI getätigt, die weitaus schneller als menschliche Händler reagieren können. Aber es ist zu einem Punkt gekommen, an dem selbst die Menschen, die sie geschrieben haben, nicht unbedingt verstehen, warum diese KI die Entscheidungen treffen, die sie treffen, und es hat einige katastrophale Auswirkungen auf die Märkte gegeben, weil Algorithmen zur Aktienprognose fehlgeschlagen sind.
Darrel Hoffman

8
@penelope Nicht jeder Job, den AI zu ersetzen versucht, ist "zinsarm". Ich würde behaupten, dass es viele Jobs mit hoher Nachfrage gibt, die in der (nicht allzu fernen) Zukunft ersetzt werden könnten. Einige Beispiele sind Ärzte, Händler und Piloten. Wenn die KI immer weiter voranschreitet und die Diagnose von Krankheiten immer besser wird, wäre es nicht unvernünftig zu glauben, dass die Jobs von Ärzten abgebaut werden.
Djib2011

14

Kurzfristig

  • Physikalische Unfälle , zB durch Industriemaschinen, Flugzeugautopiloten, selbstfahrende Autos. Besonders bei ungewöhnlichen Situationen wie extremem Wetter oder Sensorausfall. In der Regel funktioniert eine KI unter Bedingungen schlecht, unter denen sie nicht ausführlich getestet wurde.
  • Soziale Auswirkungen wie die Verringerung der Verfügbarkeit von Arbeitsplätzen, Hindernisse für benachteiligte Bevölkerungsgruppen. Kredite, Versicherungen, Bewährung.
  • Empfehlungsmaschinen manipulieren uns immer mehr, um unser Verhalten zu ändern (und unsere eigenen "kleinen Welt" -Blasen zu verstärken). Empfehlungs-Engines versorgen kleine Kinder routinemäßig mit unangemessenen Inhalten verschiedener Art, häufig, weil Inhaltsersteller (z. B. auf YouTube) die richtige Keyword-Füllung verwenden, um kindgerecht zu wirken.
  • Politische Manipulation ... Genug gesagt, denke ich.
  • Plausible Ablehnung einer Verletzung der Privatsphäre . Jetzt, da AI Ihre E-Mails lesen und sogar für Sie telefonieren kann, ist es für jemanden einfach, dass Menschen auf Ihre persönlichen Daten reagieren und behaupten, sie hätten einen Computer, der dies erledigt.
  • Den Krieg in ein Videospiel verwandeln , dh Soldaten durch Maschinen ersetzen, die von jemandem ferngesteuert werden, der sich in keiner Gefahr befindet und von seinen Opfern weit entfernt ist.
  • Fehlende Transparenz . Wir vertrauen darauf, dass Maschinen Entscheidungen mit sehr wenig Mitteln treffen, um die Rechtfertigung für eine Entscheidung zu erhalten.
  • Ressourcenverbrauch und Umweltverschmutzung. Dies ist nicht nur ein KI-Problem, sondern jede Verbesserung der KI führt zu einer größeren Nachfrage nach Big Data und zusammen erhöhen sie den Bedarf an Speicherung, Verarbeitung und Vernetzung. Zusätzlich zum Verbrauch von Strom und seltenen Mineralien muss die Infrastruktur nach einer mehrjährigen Lebensdauer entsorgt werden.
  • Überwachung - mit der Allgegenwart von Smartphones und Abhörgeräten gibt es eine Goldmine an Daten, aber zu viel, um jedes Stück zu durchforsten. Lassen Sie sich natürlich von einer KI durchforsten!
  • Cybersicherheit - Cyberkriminelle setzen zunehmend KI ein, um ihre Ziele anzugreifen.

Habe ich schon erwähnt, dass all dies bereits in vollem Gange ist?

Langfristig

Obwohl es keine klare Grenze zwischen AI und AGI gibt, geht es in diesem Abschnitt eher darum, was passiert, wenn wir weiter in Richtung AGI gehen. Ich sehe zwei Alternativen:

  • Entweder wir entwickeln AGI als Ergebnis unseres verbesserten Verständnisses der Natur der Intelligenz,
  • oder wir schlagen etwas zusammen, das zu funktionieren scheint, aber wir verstehen es nicht sehr gut, ähnlich wie derzeit viel maschinelles Lernen.

Im ersten Fall, wenn eine KI "abgehackt" wird, können wir andere KIs bauen, um sie zu überlisten und zu neutralisieren. Im zweiten Fall können wir nicht und sind zum Scheitern verurteilt. KIs werden eine neue Lebensform sein und wir könnten aussterben.

Hier sind einige mögliche Probleme:

  • Kopieren und Einfügen. Ein Problem mit AGI besteht darin, dass es durchaus denkbar auf einem Desktop-Computer ausgeführt werden kann, was zu einer Reihe von Problemen führt:
    • Script Kiddies - Leute können eine KI herunterladen und die Parameter destruktiv einstellen. Verwandte,
    • Kriminelle oder terroristische Gruppen könnten eine KI nach ihren Wünschen konfigurieren. Sie müssen keinen Experten für Bombenherstellung oder Biowaffen finden, wenn Sie eine KI herunterladen können. Lassen Sie sie nachforschen und geben Sie dann schrittweise Anweisungen.
    • Selbstreplizierende KI - es gibt viele Computerspiele dazu. KI bricht los und verbreitet sich wie ein Virus. Je mehr Rechenleistung, desto besser kann es sich schützen und weiter verbreiten.
  • Invasion von Rechenressourcen . Es ist wahrscheinlich, dass mehr Rechenleistung für eine KI von Vorteil ist. Eine KI kann Serverressourcen oder die Ressourcen von Desktops und Mobilgeräten kaufen oder stehlen. Im Extremfall könnte dies dazu führen, dass alle unsere Geräte einfach unbrauchbar werden und die Welt sofort in Mitleidenschaft ziehen. Dies könnte auch einen massiven Stromverbrauch bedeuten (und es wäre schwierig, den Stecker zu ziehen, da Kraftwerke computergesteuert sind!)
  • Automatisierte Fabriken. Eine AGI, die mehr physische Präsenz auf der Welt erlangen möchte, könnte Fabriken übernehmen, um Roboter zu produzieren, die neue Fabriken bauen und im Wesentlichen Körper für sich selbst schaffen könnten.
  • Dies sind eher philosophische Überlegungen, aber einige würden argumentieren, dass KI zerstören würde, was uns menschlich macht:
    • Minderwertigkeit. Was wäre, wenn viele KI-Wesen klüger, schneller, zuverlässiger und kreativer wären als die besten Menschen?
    • Sinnlosigkeit. Mit Robotern, die den Bedarf an physischer Arbeit ersetzen, und KIs, die den Bedarf an intellektueller Arbeit ersetzen, werden wir wirklich nichts zu tun haben. Niemand wird wieder den Nobelpreis erhalten, weil die KI bereits vorne liegt. Warum überhaupt ausgebildet werden?
    • Monokultur / Stagnation - In verschiedenen Szenarien (wie einer einzigen "wohlwollenden Diktator" AGI) könnte die Gesellschaft in einem fortwährenden Muster fixiert werden, ohne dass neue Ideen oder irgendeine Art von Veränderung (so angenehm es auch sein mag). Im Grunde genommen Brave New World.

Ich denke, AGI kommt und wir müssen uns dieser Probleme bewusst sein, damit wir sie minimieren können.


1
Ich denke, die Art von KI, mit der Fabriken neu programmiert werden können, um Roboter für sich selbst zu bauen, ist weit entfernt. Moderne "KI" ist nur eine wirklich ausgefeilte Mustererkennung.
user253751

Ich sagte "langfristig" und "AGI". AGI ist per Definition weit über eine ausgefeilte Mustererkennung hinaus. Und obwohl "ausgefeilte Mustererkennung" bei weitem die häufigste Anwendung in der Praxis ist, gibt es bereits viel Arbeit in andere Richtungen (insbesondere Problemzerlegung / Aktionsplanung, die IMO der Dreh- und Angelpunkt dieser Szenarien ist). )
Artelius

8

Zusätzlich zu den anderen Antworten möchte ich das Beispiel der Nuking Cookie Factory hinzufügen:

Maschinelles Lernen KIs versuchen grundsätzlich, ein vom Menschen beschriebenes Ziel zu erreichen. Zum Beispiel erstellen Menschen eine KI, die eine Cookie-Fabrik betreibt. Das Ziel, das sie implementieren, ist es, so viele Cookies wie möglich zu verkaufen, um die höchstmögliche Gewinnspanne zu erzielen.

Stellen Sie sich nun eine KI vor, die stark genug ist. Diese KI wird bemerken, dass jeder, wenn er alle anderen Keksfabriken mit Keksen belegt, in seiner Fabrik Kekse kaufen muss, wodurch der Umsatz steigt und der Gewinn steigt.

Der menschliche Fehler besteht hier also nicht darin, dass die Anwendung von Gewalt im Algorithmus bestraft wird. Dies wird leicht übersehen, da die Menschen nicht damit gerechnet haben, dass der Algorithmus zu dieser Schlussfolgerung kommt.


8
Dies erinnert mich an ein Beispiel aus der Praxis, das ich auf reddit gesehen habe, als jemand in Unity eine KI trainierte, um Treppen zu steigen. Es stellte sich heraus, dass es sich mit viel Kraft in den Boden pressen konnte und die Physik versagte, was dazu führte, dass es in die Luft flog und am schnellsten an die Spitze kam.
GammaGames

2
Oder, schlimmer noch, es würde sich entscheiden, dass Menschen aus Atomen bestehen, aus denen am besten Kekse hergestellt werden.
nick012000

Ich habe dieses Argument schon einmal gehört. Einer der Irrtümer bei der Vorhersage eines AI-Weltuntergangs ist, dass wir nicht vorhersagen können, was die AI tun wird. Es ist durchaus möglich, dass die KI erkennen würde, dass die Kälte anderer Cookie-Unternehmen die Weltwirtschaft stürzen und die potenzielle Nachfrage nach Cookies zerstören könnte ... Gesetz der Wirtschaft, des Angebots UND der Nachfrage
Zakk Diaz

8

Mein Lieblingsszenario für KI-Schäden beinhaltet nicht hohe Intelligenz, sondern niedrige Intelligenz. Speziell die Gray-Goo- Hypothese.

Hier läuft ein selbstreplizierender, automatisierter Prozess amok und wandelt alle Ressourcen in Kopien von sich selbst um.

Der Punkt hier ist, dass die KI nicht im Sinne von hoher Intelligenz oder allgemeiner Intelligenz "klug" ist - sie ist nur in einer Sache sehr gut und hat die Fähigkeit, sich exponentiell zu replizieren.


3
FWIW, die Menschen sind schon grau. Wir sind egoistische graue Gänsehaut, die nicht durch eine noch effizientere graue Gänsehaut ersetzt werden möchte.
user253751

1
@immibis Das ist natürlich eine philosophische POV, keine Tatsache. Es gibt viele Menschen, die zwischen Menschen und sich selbst replizierenden / sich selbst erhaltenden Maschinen unterscheiden. Zombie-Filme wären nicht sehr erfolgreich, wenn eine Mehrheit Ihre Definition im Herzen tragen würde =)
Stian Yttervik

1
@immibis Hast du den grauen Artikel auf Wikipedia gelesen, auf den sich diese Antwort bezieht? Der Begriff bezieht sich auf unintelligente (Nano-) Maschinen, die Amok laufen, nicht auf intelligentes Verhalten. Also würde ich sagen, nein, Menschen sind es nicht (und KI auch nicht), da wir Albert Einstein nicht gegessen haben, als wir konnten.
Kubanczyk

@kubanczyk die grundlegende Bedeutung des Begriffs "Intelligenz" scheint weithin missverstanden, sowohl in der Wissenschaft als auch in der Öffentlichkeit. Intelligenz ist ein Spektrum, das im Allgemeinen relativ zu anderen Entscheidungsfindungsmechanismen ist und auf dem Nutzen einer bestimmten Entscheidung im Kontext eines Problems basiert. Gray Goo wäre also intelligent, nur dass die Intelligenz begrenzt und eng wäre.
DukeZhou

5

Ich würde sagen, die größte reale Bedrohung wäre das Ungleichgewicht / die Störung, die wir bereits sehen. Die Veränderungen, 90% des Landes arbeitslos zu machen, sind real und die Ergebnisse (die zu einer noch ungleichmäßigeren Verteilung des Wohlstands führen werden) sind erschreckend, wenn man sie sich überlegt.


2
Die Menschen sagten dasselbe während der industriellen Revolution, die die meisten landwirtschaftlichen Arbeitsplätze überflüssig machte. Während Sie sich vielleicht nicht irren und es etwas ist, das mir persönlich Sorgen macht, zeigen Studien, dass dies möglicherweise kein Problem darstellt und dass sich wahrscheinlich neue Jobs eröffnen werden.
Programmdude

@Programmdude - Ich denke, es gibt einen grundlegenden Unterschied zwischen den Veränderungen der industriellen Revolution und sogar dem Abbau von Sekretariatsarbeitsplätzen durch das Aufkommen der P mit dem, was in den kommenden Jahrzehnten passieren wird.
Mayo,

2
@Programmdude Und die Leute hatten Recht. Die industrielle Revolution veränderte alles an der Art und Weise, wie die Menschen leben. Sie wirkte sich äußerst störend auf die Verteilung des Wohlstands und die Existenzfähigkeit der Menschen auf dem Bauernhof aus. Aus der anderen Sicht: Die Sklavenhalter, die auf einige hundert Jahre in der Zukunft zurückblicken, werden die Auswirkungen der KI auf diese Zeit wahrscheinlich nicht als störend empfinden, da sie ihre Situation bildeten.
Bill K

@BillK Ich war bis zum Teil über Sklavenhalter bei dir. Sie wissen, dass AIs nicht selbstbewusst sind, oder?
Ray,

@Ray Ich meinte nicht die KIs, ich meinte die Leute, die die KIs kontrollierten (und daher den ganzen Reichtum hatten), und es war wirklich nur ein Weg, um darauf hinzuweisen, dass die Dinge für uns unverständlich anders sein könnten, aber es würde nicht. ' Ich fühle mich im Rückblick anders.
Bill K

5

Ich habe ein Beispiel, das in die entgegengesetzte Richtung der Befürchtungen der Öffentlichkeit geht, aber es ist eine sehr reale Sache, die ich bereits gesehen habe. Es ist nicht AI-spezifisch, aber ich denke, dass es durch AI noch schlimmer wird. Es ist das Problem, dass Menschen in kritischen Anwendungen blind den KI-Schlussfolgerungen vertrauen .

Wir haben viele Bereiche, in denen menschliche Experten eine Entscheidung treffen sollen. Nehmen wir zum Beispiel Medikamente - sollen wir Medikamente X oder Medikamente Y geben? Die Situationen, an die ich denke, sind häufig komplexe Probleme (im Sinne von Cynefin), bei denen es wirklich gut ist, dass jemand sehr genau aufpasst und viel Fachwissen einsetzt, und das Ergebnis ist wirklich wichtig.

Es besteht ein Bedarf an medizinischen Informatikern, Entscheidungsunterstützungssysteme für diese Art von Problemen in der Medizin zu schreiben (und ich nehme an, für den gleichen Typ in anderen Bereichen). Sie geben ihr Bestes, aber die Erwartung ist immer, dass ein menschlicher Experte den Vorschlag des Systems immer als eine weitere Meinung betrachtet, wenn er eine Entscheidung trifft. In vielen Fällen wäre es unverantwortlich, angesichts des Wissensstands und der den Entwicklern zur Verfügung stehenden Ressourcen etwas anderes zu versprechen. Ein typisches Beispiel wäre der Einsatz von Computer Vision in der Radiomik: Ein Patient erhält einen CT-Scan und die KI muss das Bild verarbeiten und entscheiden, ob der Patient einen Tumor hat.

Natürlich ist die KI nicht perfekt. Selbst wenn es gegen den Goldstandard gemessen wird, erreicht es niemals eine 100% ige Genauigkeit. Und dann gibt es alle Fälle, in denen es sich gut gegen seine eigenen Zielmetriken verhält, aber das Problem war so komplex, dass die Zielmetrik es nicht gut erfasst - ich kann mir kein Beispiel im CT-Kontext vorstellen, aber ich schätze Wir sehen es sogar hier auf SE, wo die Algorithmen die Popularität in Beiträgen fördern, was ein unvollkommener Proxy für die sachliche Korrektheit ist.

Sie haben wahrscheinlich den letzten Absatz gelesen und mitgenickt: "Ja, das habe ich im ersten ML-Einführungskurs gelernt". Erraten Sie, was? Ärzte haben nie einen ML-Einführungskurs besucht. Sie verfügen selten über ausreichende statistische Kenntnisse, um die Schlussfolgerungen von Artikeln in medizinischen Fachzeitschriften zu verstehen. Wenn sie mit ihrem 27. Patienten sprechen, 7 Stunden in ihrer 16-Stunden-Schicht, hungrig und emotional ausgelaugt, und die CT nicht so eindeutig aussieht, sagt der Computer, "es ist keine bösartige Krankheit", tun sie es nicht Nehmen Sie sich noch zehn Minuten Zeit, um sich mehr auf das Bild zu konzentrieren, oder lesen Sie ein Lehrbuch nach oder wenden Sie sich an einen Kollegen. Sie machen einfach mit, was der Computer sagt, und sind dankbar, dass ihre kognitive Belastung nicht noch einmal explodiert. Also wandeln sie sich von Experten zu Leuten, die etwas von der Leinwand lesen. Schlechter, In einigen Krankenhäusern vertraut die Verwaltung nicht nur Computern, sondern hat auch herausgefunden, dass sie bequeme Sündenböcke sind. Ein Arzt hat also eine schlechte Ahnung, die gegen die Ausgabe des Computers verstößt. Es wird schwierig für ihn, auf diese Ahnung zu reagieren und sich zu verteidigen, dass sie beschlossen haben, die Meinung der KI außer Kraft zu setzen.

AIs sind mächtige und nützliche Werkzeuge, aber es wird immer Aufgaben geben, bei denen sie den Werkzeughalter nicht ersetzen können.


Wenn Sie nach weiteren Beispielen suchen, ist die Kontroverse um die Verwendung von maschinellem Lernen zur Vorhersage der Rückfallquote von Antragstellern auf Kaution oder Bewährung eine gute. Ich bin damit einverstanden, dass wir nicht erwarten sollten, dass Ärzte und Richter zusätzlich zu ihrer medizinischen und juristischen Expertise über die für das Verständnis der KI erforderlichen statistischen Kenntnisse verfügen. KI-Designer sollten sich der Fehlbarkeit ihrer Algorithmen bewusst sein und den Benutzern klare Anweisungen geben. Sagen Sie dem Arzt möglicherweise, wo er auf dem CT-Scan nachschauen soll, anstatt ihm direkt das Ergebnis zu geben.
Craq

4

Dies soll nur eine Ergänzung zu anderen Antworten sein, daher werde ich nicht auf die Möglichkeit der KI eingehen, die versucht, die Menschheit freiwillig zu versklaven.

Ein anderes Risiko besteht jedoch bereits. Ich würde es unbemannte Technologie nennen . Mir wurde Wissenschaft und Technologie beigebracht, und meiner Meinung nach hat AI von sich aus weder eine Vorstellung von Gut und Böse noch von Freiheit. Aber es wird von Menschen gebaut und benutzt und deshalb kann unrationales Verhalten involviert sein.

Ich würde mit einem realen Beispiel beginnen, das eher mit der allgemeinen IT als mit der KI zu tun hat. Ich werde von Viren oder anderen Malware sprechen. Computer sind ziemlich dumme Maschinen, mit denen sich Daten schnell verarbeiten lassen. Die meisten Menschen verlassen sich also auf sie. Einige (schlechte) Leute entwickeln Malwares, die das korrekte Verhalten von Computern stören. Und wir alle wissen, dass sie schreckliche Auswirkungen auf kleine und mittlere Unternehmen haben können, die auf einen Computerverlust nicht gut vorbereitet sind.

KI ist computerbasiert und daher anfällig für Computerangriffe. Hier wäre mein Beispiel ein KI-angetriebenes Auto. Die Technologie ist fast einsatzbereit. Stellen Sie sich aber vor, wie eine Malware das Auto dazu bringt, andere Menschen auf der Straße anzugreifen. Auch ohne direkten Zugriff auf den Code der KI kann sie von Seitenkanälen angegriffen werden . Beispielsweise werden Kameras zum Lesen von Signalzeichen verwendet. Aufgrund der Art und Weise, wie maschinelles Lernen implementiert wird, analysiert AI im Allgemeinen eine Szene nicht so wie ein Mensch. Forscher haben gezeigt, dass es möglich ist, ein Zeichen so zu ändern, dass ein normaler Mensch das ursprüngliche Zeichen sieht, eine KI jedoch ein anderes. Stellen Sie sich vor, das Schild ist das Verkehrszeichen ...

Ich meine, auch wenn die KI keine bösen Absichten hat, können böse Jungs versuchen, sie dazu zu bringen, sich schlecht zu verhalten. Und zu wichtigeren Aktionen wird an AI delegiert (Medizin, Autos, Flugzeuge, ganz zu schweigen von Bomben), je höher das Risiko ist. Anders gesagt, ich fürchte die KI nicht wirklich für sich selbst, sondern für die Art und Weise, wie sie von Menschen benutzt werden kann.


3

Ich denke, eines der realsten (dh mit den aktuellen, vorhandenen AIs verbundenen) Risiken besteht darin, sich aus zwei Gründen blind auf unbeaufsichtigte AIs zu verlassen.

1. AI-Systeme können sich verschlechtern

Physikalische Fehler in KI-Systemen können in Regionen, in denen sie nicht getestet wurden, zu völlig falschen Ergebnissen führen, da das physikalische System beginnt, falsche Werte bereitzustellen. Dies wird manchmal durch Selbsttests und Redundanz behoben, erfordert jedoch gelegentliche menschliche Überwachung.

Selbstlernende KIs haben auch eine Softwareschwäche - ihre Gewichtsnetzwerke oder statistischen Darstellungen nähern sich möglicherweise lokalen Minima, bei denen sie mit einem falschen Ergebnis hängen bleiben.

2. KI-Systeme sind voreingenommen

Dies wird erfreulicherweise häufig diskutiert, ist jedoch erwähnenswert: Die Klassifizierung von Eingaben durch KI-Systeme ist häufig voreingenommen, da auch der Trainings- / Testdatensatz voreingenommen war. Dies führt dazu, dass AIs Menschen bestimmter ethnischer Zugehörigkeit nicht erkennen, um ein offensichtlicheres Beispiel zu nennen. Es gibt jedoch weniger offensichtliche Fälle, die möglicherweise erst nach einem schweren Unfall entdeckt werden, z. B. wenn die KI bestimmte Daten nicht erkennt und versehentlich in einer Fabrik ein Feuer auslöst, Geräte zerstört oder Menschen verletzt.


Dies ist eine gute, zeitgemäße Antwort. "Black Box" AI wie neuronale Netze können nicht absolut getestet werden, was sie zu weniger als 100% vorhersehbar und damit zu weniger als 100% zuverlässig macht. Wir wissen nie, wann eine KI eine alternative Strategie für ein bestimmtes Problem entwickeln wird und wie sich diese alternative Strategie auf uns auswirkt. Dies ist ein wirklich großes Problem, wenn wir uns bei wichtigen Aufgaben wie dem Fahren von Autos oder dem Verwalten von Ressourcen auf KI verlassen möchten.
Laancelot

1

Wenn ein Roboter einer Mensch-Maschine-Schnittstelle ähnelt, ist das Gerät dasselbe wie ein ferngesteuertes Auto. Es ist möglich, mit dem Bediener hinter dem Joystick zu diskutieren und über ein Wunschverhalten zu verhandeln. Ferngesteuerte Roboter sind sichere Erfindungen, weil ihre Handlungen auf den Menschen zurückgeführt werden können und ihre Motivation vorweggenommen werden kann. Sie können verwendet werden, um das tägliche Leben zu verbessern, und es ist lustig, mit ihnen zu spielen.

Im Gegensatz dazu werden einige Roboter nicht von Joysticks gesteuert, sondern arbeiten mit einem internen Würfelgenerator. Das Würfelspielzeug ist bekannt für seine soziale Rolle beim Spielen, hat aber auch eine mystische Bedeutung. Normalerweise ist ein Zufallsgenerator stark mit chaotischem Verhalten verbunden, das von dunklen Kräften außerhalb des Einflusses des Menschen gesteuert wird. Ein elektronischer Würfel, der in einen Roboter eingebaut und mit einem Lernalgorithmus verbessert wurde, ist das Gegenteil einer Mensch-Maschine-Schnittstelle, aber es ist ein potenzieller Störfaktor, da der zufällig gesteuerte Roboter mit Menschen Spiele spielt, die nicht vorhersehbar sind. Es ist nicht möglich, die nächste Anzahl von Würfeln vorherzusagen, daher verhält sich der Roboter auch abrupt.

Der Zusammenhang zwischen zufällig gesteuerten Spielen und negativen sozialen Auswirkungen wurde im folgenden Satz erläutert.

Zitat: „In vielen traditionellen nicht-westlichen Gesellschaften mögen Spieler zu den Göttern um Erfolg beten und Gewinne und Verluste in Form des göttlichen Willens erklären. „Binde, Per. "Glücksspiel und Religion: Geschichten von Eintracht und Konflikt." Journal of Gambling Issues 20 (2007): 145-165.


1

Der Mensch existiert derzeit in einer ökologisch-ökonomischen Nische von "dem, was denkt".

KI ist auch eine Sache, die denkt, also wird sie in unsere ökologisch-ökonomische Nische eindringen. Sowohl in ökologischer als auch in wirtschaftlicher Hinsicht ist es kein guter Plan für das weitere Überleben, wenn etwas anderes Ihre Nische besetzt.

Wie genau das menschliche Überleben dadurch beeinträchtigt wird, wird ziemlich chaotisch. Es wird eine Reihe plausibler Möglichkeiten geben, wie KI als Spezies oder sogar als dominante Lebensform das Überleben des Menschen gefährden könnte.


Angenommen, es gibt eine starke KI ohne "Super-Ethik", die billiger herzustellen ist als ein Mensch (einschließlich der Herstellung eines "Körpers" oder der Manipulation der Welt) und so klug oder klüger als ein Mensch.

In diesem Fall konkurrieren wir mit dieser KI um Ressourcen. Dies geschieht auf mikroökonomischer Ebene (stellen wir einen Menschen ein oder kaufen / bauen / vermieten / mieten wir eine KI, um dieses Problem zu lösen?). Abhängig von der Rate, mit der AIs billiger und / oder intelligenter als Menschen werden, kann dies langsam (möglicherweise eine Branche zu einem Zeitpunkt) oder extrem schnell geschehen.

In einem kapitalistischen Wettbewerb sind diejenigen, die nicht zu den billigeren KIs übergehen, out-competed.

Wenn die Vorteile der KI nur am Rande liegen, könnten die hohen Kosten für die Ausbildung von Menschen über ungerade 20 Jahre, bevor sie produktiv werden, diesen Prozess kurzfristig verlangsamen. In diesem Fall könnte es sich lohnen, einen Arzt über dem Hungerlohn zu bezahlen, um eine Krankheit zu diagnostizieren, anstatt eine KI zu haben, aber es lohnt sich wahrscheinlich nicht, seine Studentendarlehen zurückzuzahlen. So würden neue menschliche Ärzte schnell aufhören, ausgebildet zu werden, und bestehende Ärzte würden verarmt sein. Dann würde über 20-30 Jahre KI Ärzte für diagnostische Zwecke vollständig ersetzen.

Wenn die Vorteile der KI groß sind, dann sind sie schnell. Ärzte wären es nicht einmal wert, die Löhne für die Armutsbekämpfung zu bezahlen, um eine Humandiagnostik durchzuführen. Sie können so etwas bei der muskelbasierten Landwirtschaft beobachten, als die benzinbasierte Landwirtschaft übernommen wurde.

Während früherer industrieller Revolutionen bedeutet die Tatsache, dass Menschen denken können, dass Sie überschüssige menschliche Arbeitskräfte für andere Aktionen einsetzen können. Fertigungsstraßen, Jobs in der Dienstleistungswirtschaft, Computerprogrammierung usw. Aber in diesem Modell ist KI billiger zu trainieren und zu bauen und bei solchen Jobs schlauer oder schlauer als Menschen.

Wie der Ethanol-induzierte arabische Frühling gezeigt hat, können Getreide und Ackerland sowohl für Maschinen als auch für Menschen verwendet werden. Wenn Maschinen effizienter sind, wenn es darum geht, Ackerland in nützliche Arbeit umzuwandeln, steigt der Preis für Lebensmittel. Dies führt in der Regel zu Unruhen, da die Menschen nicht gerne verhungern und bereit sind, ihr eigenes Leben zu riskieren, um die Regierung zu stürzen, um dies zu verhindern.

Sie können die Menschen besänftigen, indem Sie subventionierte Lebensmittel und dergleichen bereitstellen. Solange dies nicht wirtschaftlich lähmend ist (dh, wenn es teuer genug ist, könnte es dazu führen, dass Sie von anderen Anbietern, die dies nicht tun, überholt werden), ist dies nur politisch instabil.

Alternativ kann die Besitzerkaste, die von der immer effizienter werdenden KI-Wirtschaft profitiert, kurzfristig für eine Polizei- oder Militärkaste bezahlen, um die Unruhen niederzuschlagen. Dies setzt voraus, dass die Polizei- / Militärkaste in Bezug auf den Lebensstandard zwischen der oberen und der unteren Mittelschicht liegt, um eine kontinuierliche Loyalität zu gewährleisten - Sie möchten nicht, dass sie sich den Randalierern anschließen.

Eines der Profit-Center, für die Sie KI einsetzen können, ist KI-basiertes Militär und Polizei. Drohnen, die tödliche und nicht-tödliche Kampfmittel liefern, die auf der Verarbeitung visueller und anderer Datenquellen basieren, können die Anzahl der Polizei / Militärs der Mittelklasse verringern, die erforderlich sind, um durch Lebensmittelpreise ausgelöste Unruhen oder andere Instabilitäten niederzuschlagen. Wie wir bereits angenommen haben, können AIs Körper und Training billiger als ein biologischer Mensch haben, dies kann auch die Menge an Kraft erhöhen, die Sie pro ausgegebenem Dollar einsetzen können.

An dieser Stelle geht es um eine größtenteils von KI betriebene Polizei und ein Militär, das eingesetzt wird, um zu verhindern, dass Menschen die Wirtschaft der KI stürzen und die Produktionsmittel aus dem effizienteren Einsatz herausholen.

Die Überrestmenschen, die das System an der Spitze "besitzen", treffen lokal rationale Entscheidungen, um ihren Reichtum und ihre Macht zu optimieren. Sie können oder können nicht für lange bestehen; Solange sie eine relativ kleine Menge an Ressourcen verbrauchen und die Wirtschaft der KI nicht durcheinander bringen, wird es keinen großen Auswahldruck geben, sie loszuwerden. Auf der anderen Seite, da sie nichts von Wert beitragen, positionieren sie sich "an der Spitze" ist politisch instabil.

Dieser Prozess setzte eine "starke" allgemeine KI voraus. Engere KIs können dies in Stücke ziehen. Ein billiger, effektiver Diagnosecomputer könnte zum Beispiel die meisten Ärzte in überraschend kurzer Zeit in Armut bringen. Selbstfahrende Autos könnten 5% -10% der Wirtschaft verschlingen. Die Informationstechnologie verschluckt den Einzelhandel bereits mit bescheidener KI.

Es heißt, jeder technologische Fortschritt führe zu mehr und besseren Arbeitsplätzen für den Menschen. Und das gilt seit über 300 Jahren.

Vor 1900 war es jedoch auch richtig, dass jeder technologische Fortschritt zu mehr und besseren Arbeitsplätzen für Pferde führte. Dann kamen der ICE und das Auto, und jetzt gibt es weit weniger arbeitende Pferde; Die restlichen Pferde sind im Grunde genommen das Äquivalent menschlicher persönlicher Diener: Sie wurden für die Neuheit von "Wow, Cool, Horse" und den Spaß am Reiten und Steuern eines riesigen Tieres aufbewahrt.


1

Zusätzlich zu den vielen bereits gegebenen Antworten möchte ich auf kontroverse Beispiele im Bereich der Bildmodelle eingehen .

Widersprüchliche Beispiele sind Bilder, die durch speziell entworfenes Rauschen gestört wurden, das für einen menschlichen Beobachter oft nicht wahrnehmbar ist, aber die Vorhersage eines Modells stark verändert.

Beispiele beinhalten:


0

KI, die zur Lösung eines Problems in der realen Welt verwendet wird, kann ein Risiko für die Menschheit darstellen und erfordert nicht unbedingt Empfindungsvermögen. Dies erfordert auch ein gewisses Maß an menschlicher Dummheit.

Im Gegensatz zu Menschen würde eine KI die logischste Antwort finden, ohne die Einschränkung von Emotionen, Ethik oder sogar Gier ... Nur Logik. Fragen Sie diese KI, wie Sie ein Problem lösen können, das von Menschen verursacht wurde (z. B. Klimawandel). Die Lösung könnte darin bestehen, die gesamte Menschheit auszuschalten, um den Planeten zu schützen. Offensichtlich würde dies erfordern, der KI die Fähigkeit zu geben, auf ihr Ergebnis zu reagieren, was mich zu meinem früheren Punkt, der menschlichen Dummheit, bringt.


0

Künstliche Intelligenz kann uns auf jede Art und Weise der natürlichen Intelligenz (des Menschen) schaden. Die Unterscheidung zwischen natürlicher und künstlicher Intelligenz wird verschwinden, wenn der Mensch beginnt, sich enger zu entwickeln. Intelligenz kann die Identität nicht länger charakterisieren und wird zu einem grenzenlosen Besitz. Der verursachte Schaden wird so groß sein, wie der Mensch ertragen kann, um seine sich entwickelnde Identität zu bewahren.


0

Nur wenige Menschen erkennen, dass unsere globale Wirtschaft als KI betrachtet werden sollte: - Die Geldtransaktionen sind die Signale über ein neuronales Netz. Die Knoten im neuronalen Netz wären die verschiedenen Unternehmen oder Privatpersonen, die Geld bezahlen oder empfangen. - Es ist künstlich hergestellt, so dass es als künstlich qualifiziert ist

Dieses neuronale Netzwerk hat eine bessere Aufgabe als der Mensch: Der Kapitalismus hat immer gegen die vom Menschen geplante Wirtschaft (Planwirtschaft) gewonnen.

Ist das neuronale Netz gefährlich? Könnte sich unterscheiden, wenn Sie der CEO sind, der viel verdient, im Vergleich zu einem Fischer in einem Fluss, der durch Unternehmensabfälle verschmutzt ist.

Wie wurde diese KI gefährlich? Man könnte sagen, es liegt an der menschlichen Gier. Unsere Schöpfung reflektiert uns. Mit anderen Worten: Wir haben unser neuronales Netz nicht auf ein gutes Verhalten trainiert. Anstatt das neuronale Netz zu trainieren, um die Lebensqualität aller Menschen zu verbessern, haben wir es trainiert, um reiche Fokes reicher zu machen.

Wäre es einfach, diese KI so zu trainieren, dass sie nicht länger gefährlich ist? Vielleicht nicht, vielleicht sind manche KI nur größer als das Leben. Es ist nur das Überleben der Stärksten.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.