Ist menschenähnliche Intelligenz das kluge Ziel? [geschlossen]


9

Es scheint immer der Schwerpunkt in der Literatur gewesen zu sein, Komponenten des menschlichen Geistes zu approximieren, vorausgesetzt, er ist der am weitesten fortgeschrittene. Wenn andere Tiere in die KI-Landschaft kamen, war es nur, Primaten auf eine Weise zu untersuchen, die nicht praktikabel ist, um Menschen zu untersuchen oder die neuronale Aktivität einer Schnecke zu simulieren, weil ihr Nervensystem einfach ist.

Vielleicht gibt es einen vorausschauenderen Grund, die Verwendung niedrigerer Lebensformen als Modell für die gewünschte künstliche Intelligenz in Betracht zu ziehen. Ich habe gelesen, was EO Wilson und andere über die kollaborativen Fähigkeiten anderer Arten zu sagen hatten. Es gibt bemerkenswerte Eigenschaften in Organismen, die so einfach und anpassungsfähig sind wie Bakterien. Ameisen sind sicherlich die Modellspezies für die Zusammenarbeit. Honigbienen sind wohl die versiertesten, die die Nachhaltigkeit des Lebensstils und die Wechselbeziehungen mit anderen Arten zu einer Kunstform führen, die weit über den Fähigkeiten der menschlichen Intelligenz liegt.

Mit Hilfe von Sportanalogien zur Charakterisierung der Optionen ähnelt die menschliche Intelligenz eher Gladiatorsportarten vor der Erleuchtung oder zumindest Eishockey, bei denen die Verletzung des Gegners als kluge Strategie angesehen wird. Was Bienen tun, ist eher Bergsteigen, Präzision und Sorgfalt.

Was Ameisen tun, ist ähnlich wie bei Staffelläufen, bei denen das gegnerische Team wenig Interesse hat, da jede Kolonie genau wie jede Spur auf der Strecke unabhängig ist und die Spuren markiert sind. Ameisen markieren in ähnlicher Weise ihr Territorium, und die territorialen Ansprüche werden wie in der besten geopolitischen Staatskunst Westfalens respektiert. Es gibt weder kleine Eifersucht noch Wettbewerbe nur um des stolzen Primats willen. Bei Ameisen ist es genau wie beim intelligenten Leichtathletik-Trainer das Ziel, dass jede Etappe des Rennens gegen die bisherige Bestleistung des Staffelläufers gut abschneidet.

Bakterien sind die Langstreckenläufer. Sie tauschen DNA miteinander aus und ignorieren alle Regeln von Schmerz und Angst. Sie verhalten sich nachhaltig, ohne Selbstverständlichkeit und nutzen alles zum Überleben. Und sie haben fast die gesamte Dauer der Existenz der Erde überlebt. Sie werden wahrscheinlich hundert Milliarden Jahre nach dem Tod der Menschheit existieren, wenn die Sonne nicht zuerst in die Supernova geht.

Warum sollten wir Computer so programmieren wollen, dass sie sich endlos als Konkurrenten verhalten? Laden Leute intelligente Schachprogramme herunter, damit sie wiederholt verlieren können? Nein, sie laden Android OS herunter, weil es zusammenarbeitet und nichts kostet. Können wir keine Spiele ungleich Null finden, bei denen Win-Win-Szenarien möglich sind?

Haben wir nicht schon genug rückbeißende, klatschige, hyperkritische Wirkstoffe aus unserer eigenen Spezies? Warum nicht KI wie Ameisen in Richtung kollaborativer Intelligenz schicken? Wäre es nicht besser, neue künstliche Freunde zu haben, die die Last unserer täglichen Aufgaben teilen möchten?

Wollen wir nicht, dass unsere Roboter der Zukunft so bauen wie eine Honigbiene in Sechsecken? Oder wollen wir, dass unsere Roboter unserem Beispiel folgen und 70% der Materialien in vertikaler Konstruktion verschwenden, weil sie irrational auf 90-Grad-Winkeln bestehen, wie es nur Menschen tun würden?


3
Sie haben eine sehr rosige Sicht auf den Wettbewerb zwischen sozialen Insektenkolonien gewonnen. Die Aussage "Es gibt kein Interesse an der gegnerischen Mannschaft, weil jede Kolonie, genau wie jede Spur auf der Strecke, unabhängig ist" ist einfach nicht wahr. Ameisenkolonien werden mit anderen Mitgliedern ihrer eigenen Spezies konkurrieren und diese bekämpfen, und definitiv gegen andere Spezies. Obwohl ich (und ich denke, viele Menschen) zustimmen würden, andere Formen von Fähigkeiten / Intelligenz als ebenso gut angepasst wie Menschen zu bewerten, gibt es bei allen Arten immer noch bösartige Intra-Arten-, Inter-Arten- und oft Inter-Beziehungs-Wettbewerbe.
Neil Slater

1
@NeilSlater sehr korrekt ... Organismen wollen nur, dass sich ihre DNA vermehrt und Ameisen und Bienen (Arbeiter) teilen 50% DNA mit den anderen Arbeitern ... Das ist ihre Hauptmotivation
DuttaA

Wie ich schon sagte, sie teilen Gene nur in ihrer Kolonie und töten Ameisen anderer Kolonien, auch wenn sie von derselben Art sind ... Menschen teilen keine Gene, es sei denn, es ist ein Familienmitglied, bei dem man (im Allgemeinen) selbstlose Hilfe sieht ... Aber seitdem Wir haben ein so großes Gehirn (fähiges Gehirn), dass wir Erfahrungen sammeln, die unser genetisches Verhalten verändern, und wir werden möglicherweise familienfeindlich ... Ich möchte Ihre Frage beantworten, aber sie wird ziemlich groß sein, also werde ich es tun, wenn ich sie bekomme Zeit
DuttaA

Bakterien / Ameisen / Bienen, sie wissen nicht, dass das, was sie tun, intelligent ist, sie können nicht zurückdenken, was sie tun, und effizientere Methoden entwickeln. Können Sie diese einfachen Wesen dazu bringen, andere Ziele zu erreichen als das, was sie bereits erreichen? Nee.
Ankur

1
@Ankur Sie können jedoch die Prinzipien untersuchen, wie ihr erfolgreiches Verhalten funktioniert, und es künstlich auf ein neues Problem anwenden. Dies wird getan, und die Frage des OP wirft einige interessante Punkte auf, z. B. ob dies ausreicht, um alle gewünschten Anwendungsfälle für KI abzudecken, und ob dies ein sicherer / besserer Ansatz wäre. Ich denke "Nein" und "Nein" zu diesen Fragen, aber es würde einige Mühe kosten, eine Antwort zusammenzustellen.
Neil Slater

Antworten:


6

Ich sehe den Menschen als Spezies ziemlich düster und habe einen umgekehrten Turing-Test vorgeschlagen, bei dem der Mensch auf ausreichende Menschlichkeit untersucht wird ( ). (nur ein Scherz, aber nicht ganz;)

Menschen sind eindeutig nicht die erfolgreichsten Arten auf der Erde, wenn Sie Biomasse verwenden:

Geben Sie hier die Bildbeschreibung ein

Ich stimme voll und ganz zu, dass weniger komplexe Lebensformen sehr effektiv sind und es wert sind, für bestimmte Probleme nachgeahmt zu werden (siehe Optimierungsalgorithmen für Ameisenkolonien als Beispiel).

Aber wie sieht eine Welt aus, wenn sie von Ameisen geführt wird? Ist das eine Welt, in der wir leben wollen?

Wettbewerb in der Natur ist nicht nur absolut brutal, diese Brutalität ist auch der Mechanismus, durch den Arten optimiert werden (Evolution).

Der Mensch ist fehlerhaft, aber wir haben auch große Triumphe erzielt, und was uns von den Tieren trennen kann, ist, dass unsere Erfolge auch in die Kategorie der "Triumphe des Geistes" fallen können. Wo Kräfte der Selbstsucht und Gier die Gesellschaft in eine Richtung treiben, haben wir auch die Gegenkraft, die in andere Richtungen drängt.

Einige Spiele sind einfach Nullsummen und daran führt kein Weg vorbei, aber das bedeutet nicht, dass sie "alles oder nichts" sein müssen ( aus genau diesem Grund empfehlen wir Partisanen-Sudoku gegenüber Schach.)

Es gibt ein Konzept, das es wert ist, betrachtet zu werden, das als Pareto-Effizienz bekannt ist . Finanzspekulationen, auf denen ein Großteil der Weltwirtschaft heute zu beruhen scheint, hängen vom Prinzip des "größeren Narren" ab , bei dem der Nutzen eines Agenten vollständig vom Verlust eines anderen Agenten abhängt. Die schlimmsten von uns scheinen sich unter Ausschluss aller anderen auf diese Mechanismen zu konzentrieren, da sie kein wirkliches Engagement, lediglich eine stärkere Analyse und / oder bessere Informationen und Liquidität erfordern.

Was die Besten von uns stattdessen zu erreichen scheinen, ist die Pareto-Verbesserung, durch die Agenten besser gestellt werden können, ohne dass andere Agenten schlechter gestellt werden müssen.

Der Punkt hier ist, dass menschliche Intelligenz erforderlich war, um diese Bedingungen zu identifizieren und zu definieren. (Die Natur könnte sich weniger darum kümmern.) Die Pareto-Optimalität war aufgrund ihres Ursprungs umstritten, aber das war vor der Tech-Industrie, die sehr gut neue Möglichkeiten schafft, und es scheint mir, dass sie auch verwendet werden kann, um die Verteilung der Ressourcen auf auszugleichen versuchen Sie, die soziale Stabilität zu maximieren. (dh es kann manchmal optimaler sein, ein bisschen schlechter dran zu sein.)

Meine düstere Sicht auf unsere Spezies beruht nicht darauf, ineffizient oder oft dumm zu sein, sondern auf der Vorstellung, dass wir uns in dieser Phase der Geschichte immer noch so verhalten, als wären wir gerade von den Bäumen heruntergekommen und stattdessen zu Tribalismus und Partisanenkonflikten zurückgekehrt der Zusammenarbeit.

Im Gegensatz zu Ihrer These:

  • Ich glaube, es ist nicht nur wichtig, nach algorithmischer Intelligenz auf menschlicher Ebene zu greifen, es ist auch unsere Aufgabe, solche Algorithmen so weit wie möglich zu "humanisieren".

Superintelligenz und AGI sind immer noch am Horizont und völlig theoretisch, aber wenn sie erreicht werden und diese Algorithmen ein reiner Mechanismus sind, ohne die Werte, die wir Menschen im besten Fall schätzen, werden wir möglicherweise nur ein weiteres Opfer des Evolutionsprozesses Wir sind nicht in der Lage, gegen neue Formen des künstlichen Lebens anzutreten.

In gewissem Sinne kann der Drang nach Menschenähnlichkeit als ein Fest der Menschheit angesehen werden, das raffinierter, aber im Geist nicht ganz anders ist als Michelangelos David.


@DouglasDaseeco Ich mag Ihre Frage wirklich sehr b / c Ich stimme Ihnen zu 100% hinsichtlich des allgemeinen Nutzens / Nutzens von "Low-Level" -Funktionen zu. Ein Teil meines eigenen Projekts besteht darin, die Leistung von verallgemeinerten Heuristiken im Vergleich zu Lernalgorithmen für bestimmte Problemgruppen zu messen, bei denen Zeit / Ressourcen stark eingeschränkt sind und insbesondere die Topologie des aktuellen Problems nicht im Voraus bekannt ist. Wann bringen fundierte, aber weniger optimale wirtschaftliche Entscheidungen, die schneller getroffen werden, insgesamt mehr Nutzen als optimalere Entscheidungen, die mehr Ressourcen und Zeit erfordern?
DukeZhou

@DouglasDaseeco In Bezug auf die "Mythologie der KI" haben sich einige der führenden Autoren wie Stephenson und Gibson in letzter Zeit mehr für die Art von begrenzter Intelligenz interessiert, die Sie beschreiben. (Stephenson hat einen technischen Hintergrund und war nie an AGI interessiert, aber Gibson machte sich einen Namen, als er in seinen ersten Büchern darüber schrieb.)
DukeZhou

@DouglasDaseeco Einverstanden. Es ist auch erwähnenswert, dass der allgemeine Konsens unserer Arten der Ansicht ist, dass Völkermord ein Gräuel ist, und wir haben begonnen, über die Bedeutung der biologischen Vielfalt nachzudenken, mit dem Ziel, gefährdete Arten zu erhalten. Mein Gedanke ist, dass es eine sehr gute Sache wäre, wenn wir jemals von unserer Position an der Spitze der Nahrungskette fallen würden, wenn das, was uns ersetzt, diese Ziele teilt, b / c könnten wir diejenigen sein, die Schutz brauchen! (Ich finde Philip K. Dick am hervorstechendsten, weil seine Hypothese lautet, dass Empathie eine natürliche Funktion ausreichend fortgeschrittener Intelligenz ist.)
DukeZhou

3

Obwohl die menschliche Natur viele Mängel aufweist, war sie definitiv die erfolgreichste, solange sie existiert, wie von @DukeZhou hervorgehoben. Der Erfolg kann vollständig und vollständig auf die Tatsache angespielt werden, dass wir ein sehr gut funktionierendes und fähiges Gehirn haben. Im Vergleich zu anderen Arten sind wir physisch (physische Fähigkeiten) viel unfähiger. Wenn wir also versuchen, eine KI zu erstellen, sollten wir dann nicht versuchen, unser eigenes Gehirn zu modellieren, das beste intelligente System, das es gibt?

Das einzige, was Sie verpasst haben, ist, dass Menschen viel friedlicher sind als alle anderen Tiere. Tiere befinden sich in einem ständigen Überlebenskrieg, wir Menschen konnten all das überwinden und wir haben in den friedlichsten Zeiten des gesamten Jahrtausends gelebt. Konflikte können entstehen, dies kann auf unsere Gene zurückgeführt werden. Unsere Gene stammen von unseren tierischen Vorfahren, wo sie viele Dinge als Bedrohung darstellen (einschließlich Tiere derselben Art unterschiedlichen Geschlechts, wobei ein entgegengesetzter Denkprozess auch als Bedrohung wahrgenommen werden kann). Es muss also in unsere Mentalität eindringen. Können wir das ändern? Möglicherweise nein (vielleicht verstößt es gegen die Naturgesetze und die natürliche Auslese).

Sehen wir uns 2 Fälle an, in denen es keine Konkurrenz gab:

  • Jarawas - Diese Menschen leben (auch jetzt noch) abgelegen auf einer Insel. Infolgedessen leben sie immer noch einen Jäger-Sammler-Lebensstil, was darauf zurückzuführen ist, dass sie nicht das Bedürfnis hatten, sich zu ändern, da sie keine Bedrohung für ihr Leben oder ihre Position sahen. Da wir weise sind, dringen wir nicht in ihre Gebiete ein, weil wir wissen, dass sie nicht gegen die moderne Technologie bestehen würden (auch weil sie keine Bedrohung für uns darstellen).
  • Indianer : Während Europa und Asien Krieg führten, lebten diese Menschen auf einer Insel (mit nur Infighting). Infolgedessen entwickelten sich ihre Technologien kaum weiter und sie wurden fast ausgelöscht.

Die Zusammenarbeit von Ameisen und Bienen ist für mich eine Fehlbezeichnung. Es ist ausschließlich auf die Tatsache zurückzuführen, dass alle Ameisen / Bienen in einer bestimmten Kolonie Geschwister sind (andernfalls schlachten sie andere Kolonien brutal). Außerdem behalten sie territoriale Grenzen bei, solange es reichlich Ressourcen gibt, sonst gibt es einen Krieg (ich kann keine Quellen zitieren, aber ich habe viele Ameisen gehört, die in die Gebiete anderer Ameisen eindringen).

Bakterien haben keine Schmerzen oder Angst, aber zu sagen, dass sie aufgrund der Zusammenarbeit lange existierten, erscheint mir nicht ganz richtig. Sie haben wahrscheinlich einen effizienten Überlebensmechanismus.

Der Sinn all dessen ist, dass es kein rosiges Bild des Tierreichs gibt, wie @Neil Slater sagte.

Kommen wir dazu, wie wir das Verhalten einer KI erzeugen sollen? KIs haben derzeit keine Gene, daher haben sie keine Verpflichtung gegenüber ihren Nachkommen und werden keine Eifersucht haben. Dies bedeutet, dass ihnen die Grundbausteine ​​eines biologischen Organismus fehlen (und sie daher keine Verpflichtung / Interessen dazu haben). Aber ich glaube, dass der Wettbewerb unter den KI gut ist. Wie können sie sonst neue Strategien lernen? So Wettbewerb ohne Eifersucht der beste Fall für AI - Agenten ist (könnte der Fall in Tierreich nicht). Wenn es keine Konkurrenz gibt, wird das Wissen unter den KIs wahrscheinlich stagnieren.

Ich bin kein Experte für Spieltheorie, aber wenn zwei oder mehr Agenten miteinander konkurrieren, müssen sie der Spieltheorie folgen, um ihre Ergebnisse zu maximieren (wahrscheinlich mit Pareto-Effizienz, wie @DukeZhou hervorhob, oder aus physikalischer Sicht wird Energie weder erzeugt noch zerstört , nur von System zu System verteilt). Aber hier gibt es einen Haken, es gibt mehrere praktikable Strategien, die vollständig von der Umgebung abhängen . Dies war ein Thema, das von den Informatikern Axelrod und Hamilton untersucht wurde, wo sie mehrere Strategien testeten. Eine vereinfachte Version ihrer Experimente findet sich in The Selfish GeneBuch Kapitel 12. Ihre Experimente (auf einem Computer simuliert) geben anscheinend Hinweise darauf, dass nette Leute (Leute, die bedingungslos einen Gefallen tun) nicht immer gegen selbstsüchtige Jungs verlieren. Dies muss genauer untersucht werden, wenn wir tatsächlich eine Kolonie von KI schaffen wollen.

TL; DR : Es ist unfair, AI mit dem Tierreich zu vergleichen, da ihnen die grundlegende Überlebenseinheit (das Gen) fehlt. Der Mensch ist bei weitem der intelligenteste und friedlichste im gesamten Tierreich. Wettbewerb ohne Eifersucht ist wahrscheinlich die beste Vorgehensweise in einer Kolonie oder Spezies.


1
In der Spieltheorie ist das Nash-Gleichgewicht ein stabiler Punkt, und die Pareto-Effizienz ist ein Maß für den Gesamtnutzen. Das Gefangenendilemma ist ein gutes Beispiel dafür, dass die beiden nicht gleich maximiert werden. Der logische Minimax-Punkt hat beide Defekte defekt, aber der maximale Gesamtnutzen entsteht, wenn beide Gefangenen zusammenarbeiten. Leider haben viele Wettbewerbssysteme diesen Unterschied zwischen Pareto und Nash Optimum.
Neil Slater

@NeilSlater Axelrod untersuchte das Gefangenendilemma im weiteren Sinne ... anscheinend hatte er einige interessante Ergebnisse
DuttaA

0

Einige Merkmale der menschlichen Intelligenz sind sicherlich Teil des langfristigen Kernziels der KI. Die meisten dieser Eigenschaften sind offensichtlich auch Eigenschaften anderer Arten. Eine wirklich entscheidende Frage ist, wie ein Computer nicht nur menschlich, sondern überhaupt wahrnehmen kann. Die von digitalen Sensoren ausgegebenen Symbole zeigen nicht an, was erfasst wurde. Alles, was der Computer bekommt, sind die Symbole. Wie kann ein Computer also möglicherweise etwas wahrnehmen?

Ein weiteres wirklich wichtiges Thema ist, dass Menschen und wahrscheinlich die meisten anderen Tiere bis zu einem gewissen Grad eine allgemeine Intelligenz haben - sie können das Gelernte auf neue Situationen anwenden. Beim Menschen gibt es eine Version des allgemeinen Wissensproblems, das für die Sprache gilt. Das ist also eine rein menschenähnliche Angelegenheit. Aber viele Tiere haben eindeutig Allgemeinwissen. AI hat noch keine Maschine mit Allgemeinwissen hergestellt. Die katastrophalen Auswirkungen von "Edge Cases" auf die KI-Software für selbstfahrende Fahrzeuge sind ein sehr besorgniserregender Beweis. Wie man eine allgemeine Intelligenz erhält, ist ebenfalls ein absolut grundlegendes Problem.

Um meine Antwort zusammenzufassen: Gegenwärtig ist eine menschenähnliche Intelligenz nicht das kluge Ziel. KI hat viel grundlegendere Probleme. Derzeit besteht das kluge Ziel darin, die Prinzipien der Wahrnehmung zu verstehen und diese in einem Computer zu verkörpern (vorausgesetzt, dies ist möglich), und die Prinzipien der allgemeinen Intelligenz zu verstehen und diese zu verkörpern.

Das heißt, herauszufinden, wie Tiere ihre Umwelt kennen und wie sie auf der Grundlage früherer Erfahrungen angemessen auf neuartige Situationen reagieren.


Der sehr häufige Anblick von Roadkill zeigt ganz deutlich, dass viele Tiere unter den katastrophalen Folgen von "Randfällen" leiden. Die Aussage "Die von digitalen Sensoren ausgegebenen Symbole geben nicht an, was erfasst wurde." ist interessant und bringt einige Kernargumente vor, die für oder gegen starke KI sprechen. Ein Neurobiologe kann gleichermaßen sagen: "Die von Augenstäbchen und Zapfen abgegebenen Signale und die Motoneuronen, die die Muskeln steuern, zeigen nicht an, was wahrgenommen wurde." Es ist hauptsächlich unsere persönliche bewusste Erfahrung, die einen Hinweis darauf gibt, dass etwas los ist. Wir verstehen aber nicht, was das ist.
Neil Slater

@Neil Slater Genau, also kennen wir auch nicht die Prinzipien, wie ein organisches Gehirn semantische Strukturen erhält. Und es gibt Hinweise in neuronalen Impulsen, die anzeigen, was wahrgenommen wurde. Aber organische Gehirne tun eine Semantik erhalten. Man könnte meinen, diese Tatsache würde die Gurus dazu inspirieren, herauszufinden, was mit Searles chinesischem Zimmer und seiner Prämisse, dass Symbole semantisch leer sind, nicht stimmt. Sicher sind sie. Aber auch neuronale Impulse.
Roddus
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.