Wir hören oft, dass künstliche Intelligenz Menschen schädigen oder sogar töten kann, was sich als gefährlich erweisen kann.
Wie könnte künstliche Intelligenz uns schaden?
Wir hören oft, dass künstliche Intelligenz Menschen schädigen oder sogar töten kann, was sich als gefährlich erweisen kann.
Wie könnte künstliche Intelligenz uns schaden?
Antworten:
Es gibt viele triftige Gründe, aus denen Menschen Angst vor KI haben (oder sich besser um KI sorgen sollten). Nicht alle betreffen Roboter und apokalyptische Szenarien.
Um diese Bedenken besser zu veranschaulichen, werde ich versuchen, sie in drei Kategorien zu unterteilen.
Dies ist die Art von KI, auf die sich Ihre Frage bezieht. Eine superintelligente bewusste KI, die die Menschheit zerstören / versklaven wird. Dies wird uns meistens durch Science-Fiction gebracht. Einige bemerkenswerte Hollywood-Beispiele sind "The Terminator" , "The Matrix" , "Age of Ultron" . Die einflussreichsten Romane wurden von Isaac Asimov geschrieben und werden als "Roboterserie" bezeichnet (einschließlich "Ich, Roboter" , das auch als Film adaptiert wurde).
Die Grundvoraussetzung für die meisten dieser Arbeiten ist, dass sich die KI zu einem Punkt entwickelt, an dem sie sich bewusst wird und die Intelligenz der Menschen übertrifft. Während Hollywood-Filme sich hauptsächlich auf die Roboter und den Kampf zwischen ihnen und den Menschen konzentrieren, wird der eigentlichen KI (dh dem "Gehirn", das sie steuert) nicht genügend Aufmerksamkeit geschenkt. Als Randnotiz wird diese KI aufgrund der Erzählung normalerweise als Supercomputer dargestellt, der alles kontrolliert (so dass die Protagonisten ein bestimmtes Ziel haben). Die "mehrdeutige Intelligenz" (die meiner Meinung nach realistischer ist) wurde nicht ausreichend untersucht.
In der realen Welt konzentriert sich AI darauf, bestimmte Aufgaben zu lösen! Ein KI-Agent, der in der Lage ist, Probleme aus verschiedenen Bereichen zu lösen (z. B. das Verstehen von Sprache und das Verarbeiten von Bildern sowie das Fahren und ... - wie es Menschen tun), wird als allgemeine künstliche Intelligenz bezeichnet und ist erforderlich, damit KI "denken" und werden kann bewusst.
Realistisch gesehen sind wir weit entfernt von der allgemeinen künstlichen Intelligenz! Davon abgesehen gibt es keine Beweise dafür, warum dies in Zukunft nicht erreicht werden kann. Selbst wenn wir noch in den Kinderschuhen der KI stecken, haben wir derzeit keinen Grund zu der Annahme, dass sich die KI nicht zu einem Punkt entwickeln wird, an dem sie intelligenter ist als der Mensch.
Auch wenn eine KI, die die Welt erobert, noch weit davon entfernt ist, gibt es verschiedene Gründe, sich mit KI zu befassen , bei denen es sich nicht um Roboter handelt! Die zweite Kategorie, auf die ich mich noch etwas konzentrieren möchte, sind einige böswillige Verwendungen der heutigen KI.
Ich werde mich nur auf AI-Anwendungen konzentrieren, die heute verfügbar sind . Einige Beispiele für KI, die für böswillige Absichten verwendet werden können:
DeepFake : Eine Technik, mit der jemandem das Gesicht eines Videos einer anderen Person aufgezwungen wird. Dies hat in letzter Zeit bei Promi-Pornos an Popularität gewonnen und kann dazu verwendet werden, falsche Nachrichten und Falschmeldungen zu generieren . Quellen: 1 , 2 , 3
Durch die Verwendung von Massenüberwachungssystemen und Gesichtserkennungssoftware , die Millionen von Gesichtern pro Sekunde erkennen kann , kann AI für die Massenüberwachung verwendet werden. Auch wenn wir bei der Massenüberwachung an China denken, zählen viele westliche Städte wie London , Atlanta und Berlin zu den am meisten überwachten Städten der Welt . China ist einen Schritt weiter gegangen und hat das System der sozialen Kredite eingeführt , ein Bewertungssystem für Zivilisten, das offenbar aus George Orwells Seiten von 1984 hervorgeht.
Beeinflussenden Menschen durch Social Media . Abgesehen von der Erkennung des Benutzergeschmacks mit dem Ziel der gezielten Vermarktung und des Hinzufügens von Placements (eine gängige Praxis vieler Internetunternehmen), kann die KI (unter anderem) missbräuchlich zur Beeinflussung der Stimmabgabe eingesetzt werden. Quellen: 1 , 2 , 3 .
Hacken .
Militärische Anwendungen, zB Drohnenangriffe, Raketenzielsysteme.
Diese Kategorie ist ziemlich subjektiv, aber die Entwicklung der KI kann einige nachteilige Nebenwirkungen haben. Der Unterschied zwischen dieser und der vorherigen Kategorie besteht darin, dass diese schädlichen Wirkungen nicht absichtlich hervorgerufen werden. Vielmehr treten sie mit der Entwicklung der KI auf. Einige Beispiele sind:
Arbeitsplätze werden überflüssig . Wenn die KI besser wird, werden viele Jobs durch KI ersetzt. Leider lässt sich nicht viel dagegen tun, da die meisten technologischen Entwicklungen diesen Nebeneffekt haben (z. B. haben landwirtschaftliche Maschinen dazu geführt, dass viele Landwirte ihren Arbeitsplatz verloren, viele Fabrikarbeiter durch Automatisierung ersetzt, Computer haben dasselbe getan).
Die Verzerrung unserer Daten verstärken . Dies ist eine sehr interessante Kategorie, da KI (und insbesondere neuronale Netze) nur so gut sind wie die Daten, auf denen sie trainiert werden, und die Tendenz haben, verschiedene Formen sozialer Vorurteile aufrechtzuerhalten und sogar zu verstärken, die bereits in den Daten vorhanden sind. Es gibt viele Beispiele für Netzwerke, die rassistisches und sexistisches Verhalten aufweisen. Quellen: 1 , 2 , 3 , 4 .
Habe ich schon erwähnt, dass all dies bereits in vollem Gange ist?
Obwohl es keine klare Grenze zwischen AI und AGI gibt, geht es in diesem Abschnitt eher darum, was passiert, wenn wir weiter in Richtung AGI gehen. Ich sehe zwei Alternativen:
Im ersten Fall, wenn eine KI "abgehackt" wird, können wir andere KIs bauen, um sie zu überlisten und zu neutralisieren. Im zweiten Fall können wir nicht und sind zum Scheitern verurteilt. KIs werden eine neue Lebensform sein und wir könnten aussterben.
Hier sind einige mögliche Probleme:
Ich denke, AGI kommt und wir müssen uns dieser Probleme bewusst sein, damit wir sie minimieren können.
Zusätzlich zu den anderen Antworten möchte ich das Beispiel der Nuking Cookie Factory hinzufügen:
Maschinelles Lernen KIs versuchen grundsätzlich, ein vom Menschen beschriebenes Ziel zu erreichen. Zum Beispiel erstellen Menschen eine KI, die eine Cookie-Fabrik betreibt. Das Ziel, das sie implementieren, ist es, so viele Cookies wie möglich zu verkaufen, um die höchstmögliche Gewinnspanne zu erzielen.
Stellen Sie sich nun eine KI vor, die stark genug ist. Diese KI wird bemerken, dass jeder, wenn er alle anderen Keksfabriken mit Keksen belegt, in seiner Fabrik Kekse kaufen muss, wodurch der Umsatz steigt und der Gewinn steigt.
Der menschliche Fehler besteht hier also nicht darin, dass die Anwendung von Gewalt im Algorithmus bestraft wird. Dies wird leicht übersehen, da die Menschen nicht damit gerechnet haben, dass der Algorithmus zu dieser Schlussfolgerung kommt.
Mein Lieblingsszenario für KI-Schäden beinhaltet nicht hohe Intelligenz, sondern niedrige Intelligenz. Speziell die Gray-Goo- Hypothese.
Hier läuft ein selbstreplizierender, automatisierter Prozess amok und wandelt alle Ressourcen in Kopien von sich selbst um.
Der Punkt hier ist, dass die KI nicht im Sinne von hoher Intelligenz oder allgemeiner Intelligenz "klug" ist - sie ist nur in einer Sache sehr gut und hat die Fähigkeit, sich exponentiell zu replizieren.
Ich würde sagen, die größte reale Bedrohung wäre das Ungleichgewicht / die Störung, die wir bereits sehen. Die Veränderungen, 90% des Landes arbeitslos zu machen, sind real und die Ergebnisse (die zu einer noch ungleichmäßigeren Verteilung des Wohlstands führen werden) sind erschreckend, wenn man sie sich überlegt.
Ich habe ein Beispiel, das in die entgegengesetzte Richtung der Befürchtungen der Öffentlichkeit geht, aber es ist eine sehr reale Sache, die ich bereits gesehen habe. Es ist nicht AI-spezifisch, aber ich denke, dass es durch AI noch schlimmer wird. Es ist das Problem, dass Menschen in kritischen Anwendungen blind den KI-Schlussfolgerungen vertrauen .
Wir haben viele Bereiche, in denen menschliche Experten eine Entscheidung treffen sollen. Nehmen wir zum Beispiel Medikamente - sollen wir Medikamente X oder Medikamente Y geben? Die Situationen, an die ich denke, sind häufig komplexe Probleme (im Sinne von Cynefin), bei denen es wirklich gut ist, dass jemand sehr genau aufpasst und viel Fachwissen einsetzt, und das Ergebnis ist wirklich wichtig.
Es besteht ein Bedarf an medizinischen Informatikern, Entscheidungsunterstützungssysteme für diese Art von Problemen in der Medizin zu schreiben (und ich nehme an, für den gleichen Typ in anderen Bereichen). Sie geben ihr Bestes, aber die Erwartung ist immer, dass ein menschlicher Experte den Vorschlag des Systems immer als eine weitere Meinung betrachtet, wenn er eine Entscheidung trifft. In vielen Fällen wäre es unverantwortlich, angesichts des Wissensstands und der den Entwicklern zur Verfügung stehenden Ressourcen etwas anderes zu versprechen. Ein typisches Beispiel wäre der Einsatz von Computer Vision in der Radiomik: Ein Patient erhält einen CT-Scan und die KI muss das Bild verarbeiten und entscheiden, ob der Patient einen Tumor hat.
Natürlich ist die KI nicht perfekt. Selbst wenn es gegen den Goldstandard gemessen wird, erreicht es niemals eine 100% ige Genauigkeit. Und dann gibt es alle Fälle, in denen es sich gut gegen seine eigenen Zielmetriken verhält, aber das Problem war so komplex, dass die Zielmetrik es nicht gut erfasst - ich kann mir kein Beispiel im CT-Kontext vorstellen, aber ich schätze Wir sehen es sogar hier auf SE, wo die Algorithmen die Popularität in Beiträgen fördern, was ein unvollkommener Proxy für die sachliche Korrektheit ist.
Sie haben wahrscheinlich den letzten Absatz gelesen und mitgenickt: "Ja, das habe ich im ersten ML-Einführungskurs gelernt". Erraten Sie, was? Ärzte haben nie einen ML-Einführungskurs besucht. Sie verfügen selten über ausreichende statistische Kenntnisse, um die Schlussfolgerungen von Artikeln in medizinischen Fachzeitschriften zu verstehen. Wenn sie mit ihrem 27. Patienten sprechen, 7 Stunden in ihrer 16-Stunden-Schicht, hungrig und emotional ausgelaugt, und die CT nicht so eindeutig aussieht, sagt der Computer, "es ist keine bösartige Krankheit", tun sie es nicht Nehmen Sie sich noch zehn Minuten Zeit, um sich mehr auf das Bild zu konzentrieren, oder lesen Sie ein Lehrbuch nach oder wenden Sie sich an einen Kollegen. Sie machen einfach mit, was der Computer sagt, und sind dankbar, dass ihre kognitive Belastung nicht noch einmal explodiert. Also wandeln sie sich von Experten zu Leuten, die etwas von der Leinwand lesen. Schlechter, In einigen Krankenhäusern vertraut die Verwaltung nicht nur Computern, sondern hat auch herausgefunden, dass sie bequeme Sündenböcke sind. Ein Arzt hat also eine schlechte Ahnung, die gegen die Ausgabe des Computers verstößt. Es wird schwierig für ihn, auf diese Ahnung zu reagieren und sich zu verteidigen, dass sie beschlossen haben, die Meinung der KI außer Kraft zu setzen.
AIs sind mächtige und nützliche Werkzeuge, aber es wird immer Aufgaben geben, bei denen sie den Werkzeughalter nicht ersetzen können.
Dies soll nur eine Ergänzung zu anderen Antworten sein, daher werde ich nicht auf die Möglichkeit der KI eingehen, die versucht, die Menschheit freiwillig zu versklaven.
Ein anderes Risiko besteht jedoch bereits. Ich würde es unbemannte Technologie nennen . Mir wurde Wissenschaft und Technologie beigebracht, und meiner Meinung nach hat AI von sich aus weder eine Vorstellung von Gut und Böse noch von Freiheit. Aber es wird von Menschen gebaut und benutzt und deshalb kann unrationales Verhalten involviert sein.
Ich würde mit einem realen Beispiel beginnen, das eher mit der allgemeinen IT als mit der KI zu tun hat. Ich werde von Viren oder anderen Malware sprechen. Computer sind ziemlich dumme Maschinen, mit denen sich Daten schnell verarbeiten lassen. Die meisten Menschen verlassen sich also auf sie. Einige (schlechte) Leute entwickeln Malwares, die das korrekte Verhalten von Computern stören. Und wir alle wissen, dass sie schreckliche Auswirkungen auf kleine und mittlere Unternehmen haben können, die auf einen Computerverlust nicht gut vorbereitet sind.
KI ist computerbasiert und daher anfällig für Computerangriffe. Hier wäre mein Beispiel ein KI-angetriebenes Auto. Die Technologie ist fast einsatzbereit. Stellen Sie sich aber vor, wie eine Malware das Auto dazu bringt, andere Menschen auf der Straße anzugreifen. Auch ohne direkten Zugriff auf den Code der KI kann sie von Seitenkanälen angegriffen werden . Beispielsweise werden Kameras zum Lesen von Signalzeichen verwendet. Aufgrund der Art und Weise, wie maschinelles Lernen implementiert wird, analysiert AI im Allgemeinen eine Szene nicht so wie ein Mensch. Forscher haben gezeigt, dass es möglich ist, ein Zeichen so zu ändern, dass ein normaler Mensch das ursprüngliche Zeichen sieht, eine KI jedoch ein anderes. Stellen Sie sich vor, das Schild ist das Verkehrszeichen ...
Ich meine, auch wenn die KI keine bösen Absichten hat, können böse Jungs versuchen, sie dazu zu bringen, sich schlecht zu verhalten. Und zu wichtigeren Aktionen wird an AI delegiert (Medizin, Autos, Flugzeuge, ganz zu schweigen von Bomben), je höher das Risiko ist. Anders gesagt, ich fürchte die KI nicht wirklich für sich selbst, sondern für die Art und Weise, wie sie von Menschen benutzt werden kann.
Ich denke, eines der realsten (dh mit den aktuellen, vorhandenen AIs verbundenen) Risiken besteht darin, sich aus zwei Gründen blind auf unbeaufsichtigte AIs zu verlassen.
Physikalische Fehler in KI-Systemen können in Regionen, in denen sie nicht getestet wurden, zu völlig falschen Ergebnissen führen, da das physikalische System beginnt, falsche Werte bereitzustellen. Dies wird manchmal durch Selbsttests und Redundanz behoben, erfordert jedoch gelegentliche menschliche Überwachung.
Selbstlernende KIs haben auch eine Softwareschwäche - ihre Gewichtsnetzwerke oder statistischen Darstellungen nähern sich möglicherweise lokalen Minima, bei denen sie mit einem falschen Ergebnis hängen bleiben.
Dies wird erfreulicherweise häufig diskutiert, ist jedoch erwähnenswert: Die Klassifizierung von Eingaben durch KI-Systeme ist häufig voreingenommen, da auch der Trainings- / Testdatensatz voreingenommen war. Dies führt dazu, dass AIs Menschen bestimmter ethnischer Zugehörigkeit nicht erkennen, um ein offensichtlicheres Beispiel zu nennen. Es gibt jedoch weniger offensichtliche Fälle, die möglicherweise erst nach einem schweren Unfall entdeckt werden, z. B. wenn die KI bestimmte Daten nicht erkennt und versehentlich in einer Fabrik ein Feuer auslöst, Geräte zerstört oder Menschen verletzt.
Wenn ein Roboter einer Mensch-Maschine-Schnittstelle ähnelt, ist das Gerät dasselbe wie ein ferngesteuertes Auto. Es ist möglich, mit dem Bediener hinter dem Joystick zu diskutieren und über ein Wunschverhalten zu verhandeln. Ferngesteuerte Roboter sind sichere Erfindungen, weil ihre Handlungen auf den Menschen zurückgeführt werden können und ihre Motivation vorweggenommen werden kann. Sie können verwendet werden, um das tägliche Leben zu verbessern, und es ist lustig, mit ihnen zu spielen.
Im Gegensatz dazu werden einige Roboter nicht von Joysticks gesteuert, sondern arbeiten mit einem internen Würfelgenerator. Das Würfelspielzeug ist bekannt für seine soziale Rolle beim Spielen, hat aber auch eine mystische Bedeutung. Normalerweise ist ein Zufallsgenerator stark mit chaotischem Verhalten verbunden, das von dunklen Kräften außerhalb des Einflusses des Menschen gesteuert wird. Ein elektronischer Würfel, der in einen Roboter eingebaut und mit einem Lernalgorithmus verbessert wurde, ist das Gegenteil einer Mensch-Maschine-Schnittstelle, aber es ist ein potenzieller Störfaktor, da der zufällig gesteuerte Roboter mit Menschen Spiele spielt, die nicht vorhersehbar sind. Es ist nicht möglich, die nächste Anzahl von Würfeln vorherzusagen, daher verhält sich der Roboter auch abrupt.
Der Zusammenhang zwischen zufällig gesteuerten Spielen und negativen sozialen Auswirkungen wurde im folgenden Satz erläutert.
Zitat: „In vielen traditionellen nicht-westlichen Gesellschaften mögen Spieler zu den Göttern um Erfolg beten und Gewinne und Verluste in Form des göttlichen Willens erklären. „Binde, Per. "Glücksspiel und Religion: Geschichten von Eintracht und Konflikt." Journal of Gambling Issues 20 (2007): 145-165.
Der Mensch existiert derzeit in einer ökologisch-ökonomischen Nische von "dem, was denkt".
KI ist auch eine Sache, die denkt, also wird sie in unsere ökologisch-ökonomische Nische eindringen. Sowohl in ökologischer als auch in wirtschaftlicher Hinsicht ist es kein guter Plan für das weitere Überleben, wenn etwas anderes Ihre Nische besetzt.
Wie genau das menschliche Überleben dadurch beeinträchtigt wird, wird ziemlich chaotisch. Es wird eine Reihe plausibler Möglichkeiten geben, wie KI als Spezies oder sogar als dominante Lebensform das Überleben des Menschen gefährden könnte.
Angenommen, es gibt eine starke KI ohne "Super-Ethik", die billiger herzustellen ist als ein Mensch (einschließlich der Herstellung eines "Körpers" oder der Manipulation der Welt) und so klug oder klüger als ein Mensch.
In diesem Fall konkurrieren wir mit dieser KI um Ressourcen. Dies geschieht auf mikroökonomischer Ebene (stellen wir einen Menschen ein oder kaufen / bauen / vermieten / mieten wir eine KI, um dieses Problem zu lösen?). Abhängig von der Rate, mit der AIs billiger und / oder intelligenter als Menschen werden, kann dies langsam (möglicherweise eine Branche zu einem Zeitpunkt) oder extrem schnell geschehen.
In einem kapitalistischen Wettbewerb sind diejenigen, die nicht zu den billigeren KIs übergehen, out-competed.
Wenn die Vorteile der KI nur am Rande liegen, könnten die hohen Kosten für die Ausbildung von Menschen über ungerade 20 Jahre, bevor sie produktiv werden, diesen Prozess kurzfristig verlangsamen. In diesem Fall könnte es sich lohnen, einen Arzt über dem Hungerlohn zu bezahlen, um eine Krankheit zu diagnostizieren, anstatt eine KI zu haben, aber es lohnt sich wahrscheinlich nicht, seine Studentendarlehen zurückzuzahlen. So würden neue menschliche Ärzte schnell aufhören, ausgebildet zu werden, und bestehende Ärzte würden verarmt sein. Dann würde über 20-30 Jahre KI Ärzte für diagnostische Zwecke vollständig ersetzen.
Wenn die Vorteile der KI groß sind, dann sind sie schnell. Ärzte wären es nicht einmal wert, die Löhne für die Armutsbekämpfung zu bezahlen, um eine Humandiagnostik durchzuführen. Sie können so etwas bei der muskelbasierten Landwirtschaft beobachten, als die benzinbasierte Landwirtschaft übernommen wurde.
Während früherer industrieller Revolutionen bedeutet die Tatsache, dass Menschen denken können, dass Sie überschüssige menschliche Arbeitskräfte für andere Aktionen einsetzen können. Fertigungsstraßen, Jobs in der Dienstleistungswirtschaft, Computerprogrammierung usw. Aber in diesem Modell ist KI billiger zu trainieren und zu bauen und bei solchen Jobs schlauer oder schlauer als Menschen.
Wie der Ethanol-induzierte arabische Frühling gezeigt hat, können Getreide und Ackerland sowohl für Maschinen als auch für Menschen verwendet werden. Wenn Maschinen effizienter sind, wenn es darum geht, Ackerland in nützliche Arbeit umzuwandeln, steigt der Preis für Lebensmittel. Dies führt in der Regel zu Unruhen, da die Menschen nicht gerne verhungern und bereit sind, ihr eigenes Leben zu riskieren, um die Regierung zu stürzen, um dies zu verhindern.
Sie können die Menschen besänftigen, indem Sie subventionierte Lebensmittel und dergleichen bereitstellen. Solange dies nicht wirtschaftlich lähmend ist (dh, wenn es teuer genug ist, könnte es dazu führen, dass Sie von anderen Anbietern, die dies nicht tun, überholt werden), ist dies nur politisch instabil.
Alternativ kann die Besitzerkaste, die von der immer effizienter werdenden KI-Wirtschaft profitiert, kurzfristig für eine Polizei- oder Militärkaste bezahlen, um die Unruhen niederzuschlagen. Dies setzt voraus, dass die Polizei- / Militärkaste in Bezug auf den Lebensstandard zwischen der oberen und der unteren Mittelschicht liegt, um eine kontinuierliche Loyalität zu gewährleisten - Sie möchten nicht, dass sie sich den Randalierern anschließen.
Eines der Profit-Center, für die Sie KI einsetzen können, ist KI-basiertes Militär und Polizei. Drohnen, die tödliche und nicht-tödliche Kampfmittel liefern, die auf der Verarbeitung visueller und anderer Datenquellen basieren, können die Anzahl der Polizei / Militärs der Mittelklasse verringern, die erforderlich sind, um durch Lebensmittelpreise ausgelöste Unruhen oder andere Instabilitäten niederzuschlagen. Wie wir bereits angenommen haben, können AIs Körper und Training billiger als ein biologischer Mensch haben, dies kann auch die Menge an Kraft erhöhen, die Sie pro ausgegebenem Dollar einsetzen können.
An dieser Stelle geht es um eine größtenteils von KI betriebene Polizei und ein Militär, das eingesetzt wird, um zu verhindern, dass Menschen die Wirtschaft der KI stürzen und die Produktionsmittel aus dem effizienteren Einsatz herausholen.
Die Überrestmenschen, die das System an der Spitze "besitzen", treffen lokal rationale Entscheidungen, um ihren Reichtum und ihre Macht zu optimieren. Sie können oder können nicht für lange bestehen; Solange sie eine relativ kleine Menge an Ressourcen verbrauchen und die Wirtschaft der KI nicht durcheinander bringen, wird es keinen großen Auswahldruck geben, sie loszuwerden. Auf der anderen Seite, da sie nichts von Wert beitragen, positionieren sie sich "an der Spitze" ist politisch instabil.
Dieser Prozess setzte eine "starke" allgemeine KI voraus. Engere KIs können dies in Stücke ziehen. Ein billiger, effektiver Diagnosecomputer könnte zum Beispiel die meisten Ärzte in überraschend kurzer Zeit in Armut bringen. Selbstfahrende Autos könnten 5% -10% der Wirtschaft verschlingen. Die Informationstechnologie verschluckt den Einzelhandel bereits mit bescheidener KI.
Es heißt, jeder technologische Fortschritt führe zu mehr und besseren Arbeitsplätzen für den Menschen. Und das gilt seit über 300 Jahren.
Vor 1900 war es jedoch auch richtig, dass jeder technologische Fortschritt zu mehr und besseren Arbeitsplätzen für Pferde führte. Dann kamen der ICE und das Auto, und jetzt gibt es weit weniger arbeitende Pferde; Die restlichen Pferde sind im Grunde genommen das Äquivalent menschlicher persönlicher Diener: Sie wurden für die Neuheit von "Wow, Cool, Horse" und den Spaß am Reiten und Steuern eines riesigen Tieres aufbewahrt.
Zusätzlich zu den vielen bereits gegebenen Antworten möchte ich auf kontroverse Beispiele im Bereich der Bildmodelle eingehen .
Widersprüchliche Beispiele sind Bilder, die durch speziell entworfenes Rauschen gestört wurden, das für einen menschlichen Beobachter oft nicht wahrnehmbar ist, aber die Vorhersage eines Modells stark verändert.
Beispiele beinhalten:
Beeinflussung der vorhergesagten Diagnose bei einer Röntgenaufnahme der Brust
Beeinflussung der Erkennung von Verkehrszeichen, die für autonome Fahrzeuge erforderlich sind.
KI, die zur Lösung eines Problems in der realen Welt verwendet wird, kann ein Risiko für die Menschheit darstellen und erfordert nicht unbedingt Empfindungsvermögen. Dies erfordert auch ein gewisses Maß an menschlicher Dummheit.
Im Gegensatz zu Menschen würde eine KI die logischste Antwort finden, ohne die Einschränkung von Emotionen, Ethik oder sogar Gier ... Nur Logik. Fragen Sie diese KI, wie Sie ein Problem lösen können, das von Menschen verursacht wurde (z. B. Klimawandel). Die Lösung könnte darin bestehen, die gesamte Menschheit auszuschalten, um den Planeten zu schützen. Offensichtlich würde dies erfordern, der KI die Fähigkeit zu geben, auf ihr Ergebnis zu reagieren, was mich zu meinem früheren Punkt, der menschlichen Dummheit, bringt.
Künstliche Intelligenz kann uns auf jede Art und Weise der natürlichen Intelligenz (des Menschen) schaden. Die Unterscheidung zwischen natürlicher und künstlicher Intelligenz wird verschwinden, wenn der Mensch beginnt, sich enger zu entwickeln. Intelligenz kann die Identität nicht länger charakterisieren und wird zu einem grenzenlosen Besitz. Der verursachte Schaden wird so groß sein, wie der Mensch ertragen kann, um seine sich entwickelnde Identität zu bewahren.
Nur wenige Menschen erkennen, dass unsere globale Wirtschaft als KI betrachtet werden sollte: - Die Geldtransaktionen sind die Signale über ein neuronales Netz. Die Knoten im neuronalen Netz wären die verschiedenen Unternehmen oder Privatpersonen, die Geld bezahlen oder empfangen. - Es ist künstlich hergestellt, so dass es als künstlich qualifiziert ist
Dieses neuronale Netzwerk hat eine bessere Aufgabe als der Mensch: Der Kapitalismus hat immer gegen die vom Menschen geplante Wirtschaft (Planwirtschaft) gewonnen.
Ist das neuronale Netz gefährlich? Könnte sich unterscheiden, wenn Sie der CEO sind, der viel verdient, im Vergleich zu einem Fischer in einem Fluss, der durch Unternehmensabfälle verschmutzt ist.
Wie wurde diese KI gefährlich? Man könnte sagen, es liegt an der menschlichen Gier. Unsere Schöpfung reflektiert uns. Mit anderen Worten: Wir haben unser neuronales Netz nicht auf ein gutes Verhalten trainiert. Anstatt das neuronale Netz zu trainieren, um die Lebensqualität aller Menschen zu verbessern, haben wir es trainiert, um reiche Fokes reicher zu machen.
Wäre es einfach, diese KI so zu trainieren, dass sie nicht länger gefährlich ist? Vielleicht nicht, vielleicht sind manche KI nur größer als das Leben. Es ist nur das Überleben der Stärksten.