Gibt es einen Grund für anfängliches Überbewusstsein von Wissenschaftlern und Ingenieuren, die in den 1960er Jahren an künstlicher Intelligenz gearbeitet haben?


21

Ich habe gerade einen AI & Data Mining Kurs begonnen und das Buch. AI Application Programming, beginnt mit einem Überblick über die Geschichte der AI. Das erste Kapitel befasst sich mit der Geschichte der KI von den 1940er Jahren bis heute. Eine besondere Aussage ist mir aufgefallen:

[In den 60ern] KI-Ingenieure haben zu viel versprochen und zu wenig geliefert ...

Was war der Grund für das Überbewusstsein? Lag es an mathematischen Vorhersagemodellen, die zeigten, dass ein Durchbruch unmittelbar bevorstand, oder an der ständig wachsenden Hardware-Fähigkeit, diese Vorteile zu nutzen?


4
Hybris-Problem ist universell. Weitere Informationen finden Sie unter "Von Zufälligkeiten getäuscht". en.wikipedia.org/wiki/Fooled_by_Randomness
Job

1
Wenn Ihre Bibliothek eine Kopie davon hat, ist Doug Lenats Artikel "Warum AM und EURISKO scheinen zu funktionieren". Künstliche Intelligenz 23 (3): S. 269–294. könnte lesenswert sein. (AM und EURISKO waren Doug Lenats eigene Programme). Dies ist jedoch weit nach den 60er Jahren. Persönlich glaube ich, dass es daran lag, dass einige frühe Projekte sehr erfolgreich waren, so dass es so aussah, als ob viele Probleme mit einfachen Techniken lösbar wären. Leider war dies nicht der Fall.
MZB

7
Problem war schwieriger als erwartet. Viel härter.

8
@ Thorbjørn Ich weiß nicht warum, aber ich kann mir vorstellen, dass er am Rand eines Notizbuchs eines Wissenschaftlers des Ingenieurs gekritzelt wird, kurz bevor er das Büro verlässt und den Wendepunkt erreicht, ohne dass ihm die Vernunft fehlt.
Thomas Owens

3
Dies ist keine Antwort wert, aber Sie sollten sich auch den sozialen Kontext dieser Zeit ansehen. Die westliche Welt, insbesondere die USA, hatten den Zweiten Weltkrieg miterlebt und eine Menge Technologie entwickelt, die viele schwierige Probleme löste. Es bestand ein allgemeiner Eindruck, dass wir jedes Problem lösen könnten, das wir uns vorgenommen hatten. Arroganz oder Hybris zu nennen, ist wahrscheinlich etwas übertrieben. Ich würde mehr für etwas wie ungezügelten Optimismus gehen.
Blrfl

Antworten:


30

Meine persönliche Meinung ist, dass es an Hybris lag . In den 60er und 70er Jahren gingen einige mächtige Egos durch die Hallen von MIT, Stanford usw. und sie wussten einfach, dass sie dieses Problem gelöst hatten. Recht.

Obwohl ich damals nicht Teil dieses Universums war, arbeitete ich Mitte bis Ende der 80er Jahre mit Ähnlichkeitssuche. Unsere Arbeit basierte ursprünglich auf Untersuchungen von Gerard Salton in Cornell in den 60er Jahren, die gewichtete Attributvektoren zur Darstellung von Dokumenten und Abfragen verwendeten. Es war tatsächlich eine brauchbare Annäherung, aber als neuronale Netze in Flammen ging nach unten (zumindest bis sie entdeckt Backpropagation ), Salton Arbeit mit ihm wegen der Ähnlichkeiten enthalten war (Wortspiel beabsichtigt) auf neuronale Netze. Er versuchte, etwas anderes zu machen, aber es gab mehrere Jahre, in denen er mit den anderen verwechselt wurde.

Jedes Mal, wenn jemand eine Lösung für die Current Brick Wall ™ findet, ist er sehr aufgeregt und erklärt AI als gelöstes Problem. Nur ist es nicht. Denn hinter dieser Mauer ist eine andere. Dieser Zyklus hat sich immer und immer wieder wiederholt und nicht nur in der KI. Ich glaube fest daran , dass alle potenziellen Informatiker und Ingenieure sollten werden benötigt sehr ein Semester lang Klasse in der Geschichte der Informatik, mit besonderem Schwerpunkt auf der Anzahl von Next Big Things ™ , die stiegen wie Raketen ... und dann machten zu nehmen großer Krater im Talboden.

Nachtrag: Ich habe das Labor Day-Wochenende mit einem alten Freund verbracht und wir haben ein wenig darüber gesprochen. Der Kontext - herauszufinden, was das bedeutet, wie man es darstellt und wie man es dann verwendet - stellte sich als möglicherweise größte Hürde heraus, die es zu überwinden gilt. Und je länger Sie es betrachten, desto größer wird eine Hürde. Der Mensch ist in der Lage, ein erstaunliches, nahezu augenblickliches Teilmuster-Matching von "was passiert" mit einem riesigen Vorrat von "was passiert ist" durchzuführen und dann dieses Wissen über die Vergangenheit mit der gegenwärtigen Situation zu kombinieren, um einen Kontext zu schaffen, in dem Verständnis entsteht kann zum Handeln führen. Zum Beispiel können wir es als leistungsstarken Filter für "Dinge, die wir ignorieren können / nicht können" verwenden, während wir den Waldo-Grad hinunterflitzen bei 60 mph mit Verkehr 4 Spuren nebeneinander und nur 3 oder 4 Fuß (oder weniger!) getrennt.

Auf dem Spektrum von stuff > data > information > knowledge > understanding > judgementbemühen wir uns immer noch, zu den Informations- / Wissensschritten zu gelangen, und selbst das ist auf stark eingeschränkte Diskursbereiche beschränkt .


1
AI ist wie eine Bergkette. Wir sind irgendwo in den Ausläufern und können den Gipfel sehen, den wir erklimmen möchten, aber wir haben keine Ahnung, was über dem nächsten Hügel liegt oder wie viele weitere Hügel wir noch erklimmen müssen, um unser Ziel zu erreichen.
CdMnky

1
IMO, es kann nicht ohne wirklich ausgefeilte, stark verallgemeinerte Mustererkennung passieren. Das bloße Lesen über viele der Dinge, die sie versucht haben, kam mir als naiv oder vielleicht als übermäßig linkssinnig vor, was ich im Allgemeinen als sinnesdominierte Programmierung empfand, zumindest als ich in den 80er Jahren darauf aufmerksam wurde.
Erik Reppen

17

Ganz einfach, sie haben das Ausmaß des vorliegenden Problems massiv unterschätzt, insbesondere was die kombinatorische Explosion betrifft. Viele KI-Lösungen eignen sich gut für "Spielzeug" -Proben, scheitern jedoch schwer, wenn sie auf Probleme auf menschlicher Ebene skaliert werden.

Sie waren wohl auch einfach unerfahren. KI als Feld war (relativ) erst im Hinblick auf praktische Anwendungen erfunden worden, daher hatte niemand bedeutende Erfahrung darin, Theorie auf irgendetwas anzuwenden.


Ich weiß nicht viel davon, aber ich dachte immer, dass viele der Funktionen von Google auf AI basieren. Oder ist mein schlechtes Verständnis dafür?
user10326

@ user10326: Das sind sie. Aber ich verstehe nicht, was das mit dem vorliegenden Thema zu tun hat - Google existierte 30 Jahre nach dem fraglichen Zeitraum nicht.
DeadMG

Ok, aber was ich damit sagen will ist, dass sie (Google) KI in praktischer Weise eingesetzt haben, oder? Ich meine, es kann sein, dass es nicht das ist, was sie sich damals "vorgestellt" haben, aber dennoch können die Funktionen von Google mit einem nicht AI Sprache?
user10326

4
@ user10326, Wie ich es verstehe, verwendet Google ein sehr fortschrittliches Rätselsystem. Grundsätzlich analysiert es Berge von Benutzeraktivitäten und versucht, Muster zu extrapolieren. Die ursprüngliche Vision von AI war es, einen echten digitalen Geist zu erschaffen, der genau wie ein menschliches Gehirn funktioniert. Tatsächlich ist die Nichteinigung darüber, was KI ausmacht, einer der Nachteile des Feldes.
jiggy

@ user10326: Die Relevanz wird immer noch nicht verstanden.
DeadMG

15

Ich kann mir ein paar Gründe vorstellen.

AI erlebte mit einigen der in den späten 50ern und frühen 60ern in Angriff genommenen Spielzeugprobleme einen derart raschen Erfolg, dass sie das Erreichte überschätzten. ELIZA und SHRDLU haben die Leute verblüfft, obwohl es sich um relativ einfache Programme handelt. Leider war ein großer Teil dessen, was diese Programme umwerfend machte, wirklich nur eine Neuheit. Niemand ist heute sehr beeindruckt von einem Gespräch mit ELIZA, aber damals hielten die Leute es für beinahe wunderbar.

Auch wenn Probleme "gelöst" oder zumindest lösbar werden, werden sie von den Leuten nicht mehr als KI betrachtet. Codeoptimierung war früher ein KI-Problem. Das statistische Lernen entwickelte sich aus der KI zu einer eigenen Spezialität und nahm die Spracherkennung mit. Wenn Data Mining zum Mainstream wird, verliert es seine Verbindung zur KI. Mit der Zeit vergisst die KI ihre Erfolge und bleibt an den unlösbaren und unlösbaren Problemen hängen, und es sieht aus wie ein Flop.


5
Guter Punkt zu "Wenn es nicht mehr magisch ist (3), ist es keine KI mehr".
Piskvor

Aber ist statistisches Lernen und Data-Mining-KI nicht im Prinzip?
user10326

@ user10326, sicherlich stufen die meisten Referenzen das maschinelle Lernen immer noch als einen Zweig der KI ein, aber ich habe den Eindruck, dass viele Leute, die in ML arbeiten, dich verärgern würden, wenn du ihnen sagst, dass sie in KI arbeiten. Ich denke, sie würden Ihnen sagen, dass ML pragmatisch gesehen ein Zweig der Statistik ist und keinen besonderen Einblick in die künstliche oder sonstige Intelligenz bietet.
Charles E. Grant

12

Ich denke, die Menschen in den 60er Jahren haben ihre eigene menschliche Erfahrung genutzt, um Probleme in "harte Probleme" und "leichte Probleme" zu unterteilen: Dinge wie das Gewinnen von Schach, das Lösen logischer Rätsel und das Lösen mathematischer Gleichungen erscheinen uns Menschen schwierig. Dinge wie das Verstehen natürlicher Sprachen oder das Finden der Umrisse von Objekten in einem Bild scheinen einfach zu sein, da unser Gehirn die gesamte Arbeit ohne bewusste Anstrengung erledigt. Wenn wir versuchen zu erklären, wie wir diese Dinge tun, finden wir einfache Erklärungen wie "Englische Sätze haben immer die Struktur subject-predicate-object, wobei subject ein einfacher Begriff oder eine Phrase sein kann ..." oder "I'm nach Kanten suchen und mit Objektgrenzen verbinden ". Heute wissen wir, dass die Dinge nicht so einfach sind, sondern nur, weil all die einfachen (und viele weniger einfachen) Lösungen ausprobiert wurden und nicht. '

Außerdem hat dieser Irrtum in den 60er Jahren nicht begonnen: Es gibt Jahrhunderte der Forschung, wie diese "harten Probleme" (Heuristik, Spieltheorie, Entscheidungstheorie, Mathematik, Logik usw.) gelöst werden können, aber ich bin mir nicht sicher, ob es jemals jemanden gegeben hat haben sich die Mühe gemacht zu untersuchen, wie natürliche Sprachen vor den 1950er Jahren analysiert werden könnten.

Und auch heute noch finden sich regelmäßig Fragen zum Stapelüberlauf, bei denen gefragt wird, wie englische Sätze analysiert, das Alter einer Person in einem Bild geschätzt oder beurteilt werden kann, ob ein Bild "arbeitssicher" ist oder ob zwei Bilder dasselbe zeigen . Ich glaube nicht , die Leute , die diese Fragen von zu viel Überheblichkeit oder Arroganz leiden fragen: Diese Probleme scheinen nur so einfach, es ist unglaublich, dass es ist kein einfacher Algorithmus , sie zu lösen.


3
Ich glaube, dies ist eher die richtige Antwort als die Überheblichkeitstheorie, die auf dieser Site offenbar stark unterstützt wird. Die Dinge, die wir für unglaublich schwierig hielten, erwiesen sich für Maschinen als relativ einfach, während unglaublich einfache Dinge für Menschen für Maschinen sehr schwierig sind.
AlexC

11

AI hat eine lange Geschichte von Enttäuschungen hinter sich, aber ich denke, viele Kritiker vereinfachen das, was passiert ist, oftmals zu sehr, zum Beispiel mit Ihrem Zitat "Ingenieure aus den 1960er Jahren zu viel versprochen und zu wenig geliefert".

In den 60er Jahren war AI die Domäne einer relativ kleinen Gruppe von Forschern (das Gebiet war noch nicht so weit entwickelt, dass man es als Ingenieurwesen bezeichnen konnte), hauptsächlich an Universitäten, und nur sehr wenige von ihnen waren versierte Programmierer.

Die plötzliche Verfügbarkeit von Computern in den 1950er Jahren hatte große Erwartungen an die Automatisierung geweckt, insbesondere bei der maschinellen Übersetzung von natürlicher Sprache, beim Schachspielen und ähnlichen Problemen. Sie werden vielleicht einige tatsächliche Erfolgsvorhersagen aus dieser Zeit finden, aber die Versprechungen kamen unvermeidlich, BEVOR sich jemand eingehend mit einem dieser Probleme befasste. (Oder sie gingen fälschlicherweise davon aus, dass ein Erfolg den anderen garantiert, zum Beispiel, dass sie in der Lage sind, gutes Schach zu spielen, nachdem Samuel so viel Erfolg mit Dame hatte.)

Seien Sie auch vorsichtig bei Behauptungen wie "sie sagten", "sie fühlten", "sie dachten" usw .; retrospektive Meinungen (wie diese!) sind leicht zu finden, während dokumentierte Beweise für tatsächliche Vorhersagen von "Experten" (die tatsächlich versucht haben, ein bestimmtes Problem zu lösen) viel schwerer zu finden sind.

Zu vielversprechend und zu wenig zu liefern war schon immer ein Symptom der Softwareentwicklung, unabhängig von dem speziellen Bereich, in dem die Programmierung angewendet wird. Eine Hauptschwierigkeit bei KI besteht darin, dass nicht-triviale Probleme die Fähigkeiten der meisten Ingenieure übersteigen. Zum Beispiel, obwohl Charles E. Grants Antwort ELIZA und SHRDLU als "relativ einfach" einstuft, würde ich sagen, dass dies nur für ELIZA gilt (was die meisten Programmierstudenten im ersten Jahr wahrscheinlich ohne große Schwierigkeiten umsetzen könnten). Andererseits ist SHRDLU ein großes, äußerst ausgeklügeltes Programm, dessen Implementierung die meisten Programmierer nur sehr schwer erfinden können. In der Tat konnten zwei Teams von Universitätsstudenten nicht einmal den Quellcode wieder vollständig zum Laufen bringen, und SHRDLU-ähnliche Fähigkeiten sind heute, über 40 Jahre später, immer noch schwer zu finden.

Da KI wahrscheinlich eines der am wenigsten verstandenen und am schwersten zu lösenden Probleme ist, bei denen Computer zum Einsatz kommen können, würde ich sagen, dass die Fortschritte in der KI im Allgemeinen auf dem Niveau des Kurses liegen. Es gibt immer noch hohe Erwartungen und unsere Hardware-Geschwindigkeit und -Kapazitäten haben seit den 60er Jahren enorm zugenommen, aber ich würde sagen, dass sich die Fähigkeiten und das Verständnis der Ingenieure für KI nicht allzu sehr verbessern Wahrscheinlich ist es noch ein langer Weg, und vielversprechende und zu geringe Lieferungen werden wahrscheinlich noch einige Zeit anhalten.


Re: Turing-Test: Ich habe über ein Georgia Tech-Programm für Lehrassistenten gelesen, von dem die meisten Studenten nicht sagen können, dass es sich um eine "KI" handelt. Das hätten sie vielleicht nicht gesucht, aber es ist ihnen bestimmt nicht aufgesprungen. Ich denke, dass das allgemeine Gespräch bald ein gelöstes Problem sein wird. Ich habe kürzlich gesehen, wie jemand mit einem neuen Google Echo-Ding (wie auch immer es heißt) gespielt hat. Mitleidig, aber wie lange wird es so bleiben, wenn Millionen von Affen ihre Gesprächsproben füttern?

5

Ich denke, der Grund war Arroganz. Wäre ich in den 60ern Ingenieur bei AI gewesen, wäre ich selbst ziemlich arrogant gewesen.

Ich denke, um großartige Dinge zu erreichen, muss man nach großartigen Dingen greifen. So vielversprechend ist nicht unbedingt eine schlechte Sache, solange Sie das Limit nicht überschreiten. Wissenschaftler von heute versprechen Dinge, von denen ich nicht glaube, dass sie möglich sein werden, aber wenn sie nicht danach greifen, werden wir verpassen, was als Ergebnis erreicht wird.


4

Es kann sehr schwierig sein, irgendwohin zu gelangen, wenn Sie nicht wissen, wohin Sie wollen.

Wenn wir eine vernünftige Erklärung darüber hätten, was Intelligenz ist und wie sie funktioniert, hätten wir vielleicht eine Chance, sie effektiv nachzuahmen. Der Turing-Test ist faszinierend und nützlich, reicht jedoch wahrscheinlich nicht aus, um die wahre Intelligenz zu modellieren. Nach allem, was wir wissen, könnte ein "Modell" der Intelligenz auch für echte Intelligenz nicht ausreichen.


3
+1 für den ersten Satz.
Mason Wheeler

Vielleicht sind wir nicht intelligent genug, um die Intelligenz oder sogar ein Modell davon zu verstehen. Aber wir könnten ein kaputtes Modell bauen und es dann an sich selbst arbeiten lassen ...

2

Nun, ich würde sagen, es ist mehr oder weniger dasselbe, was gerade mit OWL passiert. Schauen Sie sich um und versuchen Sie, Parallelen zu ziehen.

Klingt auf dem Papier gut, scheint bei Spielzeugproblemen gut zu funktionieren, wird bei den meisten realen Daten unglaublich kompliziert.


Was ist EULE? Ostwestfalen-Lippe?
Sleske


2

Zusätzlich zu den guten Antworten wurden zwei Bemerkungen gemacht:

Einige Zitate des Tages scheinen zu implizieren, dass viele der Forscher dachten, dass die trivialen Lösungen vergrößert werden könnten, sobald schnellere Computer entworfen wurden. Für einige Lernsysteme war dies sehr richtig, aber für die Art von Dingen, von denen ich denke, dass das OP sich darauf bezieht, wurde es im Maßstab wirklich nicht besser.

Zu der Zeit schätzten die Forscher die Komplexität des menschlichen Geistes nur sehr gering ein (konzentrieren Sie sich auf Ideen wie Turing-Test, die Idee, dass Menschen nur einen geringen Prozentsatz ihres Gehirns jemals verwenden, usw.). KI auf dem Niveau eines einfachen Tieres wurde durch einige Maßnahmen erreicht, als die Dinge größer wurden, aber der Sprung zu einer menschlichen KI war viel größer als erwartet. Dies hat einige Forscher dazu veranlasst, Babysysteme und andere wachstums- / evolutionsbasierte Simulationen zu lernen, um diese Lücke zu schließen.


Ein einfaches Gehirn (Insekt, Fisch, Reptil) kann gut mit dem Verhalten umgehen , aber der Umgang mit Argumenten ist ein anderes Problem. Ich denke also, dass AI in Kürze in der Lage sein wird, sich über eine Problemdomäne zu unterhalten, aber nichts Sinnvolles hat, um dazu beizutragen oder neuartige Probleme zu lösen. Das interessante Gebiet ist, wo kleine Gehirne (Vögel) komplexe Dinge tun können, wie auf Konversationseingaben zu reagieren und amüsante Dinge zu erfinden (Papagei, der ein Klingelgeräusch imitierte, um zu sehen, wie Leute zur Tür gehen, und dann ein Lachen von sich gab).

1

Ein Grund dafür war der Erfolg, den wir in den 1960er Jahren auf ELSEWHERE hatten. Wir waren gerade ins All gestartet und würden bald einen Mann auf dem Mond landen. Wir hatten gerade Heilmittel für Kinderlähmung und andere schwere Krankheiten entdeckt.

Aber "Künstliche Intelligenz" war ein anderes Tier als die "technischen" Probleme, mit denen wir damals konfrontiert waren. Es war eher ein "logisches" als ein "mechanisches" Problem.

Kurz gesagt, AI (in den 1960er Jahren) war eine Idee, "deren Zeit noch nicht gekommen war". Es dauerte in den folgenden Jahrzehnten weitere Entwicklung, bis es so zugänglich wurde wie die anderen Probleme.


0

Ein weiterer Grund kann sein, dass das Beherrschen eines Computers / das Schreiben von Computerprogrammen bei kleinen Kontrollfreaks ein Gefühl der Allmacht hervorruft - tatsächlich schafft man kleine Universen, wenn auch geschlossene.

Dies sowie das Fehlen einer philosophischen / erkenntnistheoretischen Ausbildung und das naive Vertrauen in einfache Erklärungen wie "Intelligenz ist nichts anderes als ..." können zu Hybris führen.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.