Warum brauchen wir gesunden Menschenverstand in der KI?


10

Betrachten wir dieses Beispiel:

Es ist Johns Geburtstag, kaufen wir ihm einen Drachen.

Wir Menschen würden höchstwahrscheinlich sagen, dass der Drachen ein Geburtstagsgeschenk ist, wenn wir gefragt werden, warum er gekauft wird. und wir bezeichnen diese Argumentation als gesunden Menschenverstand .

Warum brauchen wir das bei künstlich intelligenten Agenten? Ich denke, es könnte eine Vielzahl von Problemen verursachen, da viele unserer menschlichen Fehler durch diese vagen Annahmen verursacht werden.

Stellen Sie sich eine KI vor, die bestimmte Dinge ignoriert, weil sie davon ausgeht, dass sie bereits von einer anderen Person (oder einer anderen KI) mit gesundem Menschenverstand ausgeführt wurde.

Würde das nicht menschliche Fehler in KI-Systeme bringen?


Kommentare sind nicht für eine ausführliche Diskussion gedacht. Dieses Gespräch wurde in den Chat verschoben .
nbro

Antworten:


16

Gesunder Menschenverstand ist die Sammlung von Prämissen, die jeder in einem bestimmten Kontext (daher kann gesunder Menschenverstand eine Funktion des Kontexts sein) für selbstverständlich hält. Es würde eine Menge Missverständnisse zwischen einem Menschen und einer KI geben, wenn die KI kein gesundes Wissen hätte. Daher ist gesunder Menschenverstand für die Interaktion zwischen Mensch und KI von grundlegender Bedeutung .

Es gibt auch Prämissen, die jeder Mensch unabhängig von Land, Kultur oder allgemeinem Kontext für selbstverständlich hält. Zum Beispiel hat jeder Mensch (fast seit seiner Geburt) einen Mechanismus, um über naive Physik wie Raum, Zeit und physikalische Interaktionen nachzudenken. Wenn eine KI dieses Wissen nicht besitzt, kann sie die Aufgaben, die dieses Wissen erfordern, nicht ausführen.

Es wird angenommen , dass jede Aufgabe, bei der eine Maschine über gesunder Menschenverstand (eines durchschnittlichen Menschen) verfügen muss, AI-vollständig ist, dh sie erfordert Intelligenz auf menschlicher Ebene (oder allgemeiner Intelligenz). Siehe Abschnitt 3 des Artikels Common Sense Knowledge (2009) von Christian Andrich, Leo Novosel und Bojan Hrnkas.

Natürlich können die Probleme, die auftreten, wenn Menschen aufgrund unterschiedlicher Annahmen oder Prämissen kommunizieren, auch zwischen Menschen und KIs auftreten (die über gesunder Menschenverstand verfügen).


Kommentare sind nicht für eine ausführliche Diskussion gedacht. Dieses Gespräch wurde in den Chat verschoben .
nbro

10

Wir brauchen diese Art von gesundem Menschenverstand, wenn wir Computer dazu bringen wollen, die menschliche Sprache zu verstehen . Für ein Computerprogramm ist es einfach, die grammatikalische Struktur des von Ihnen angegebenen Beispiels zu analysieren. Um jedoch seine Bedeutung zu verstehen, müssen wir die möglichen Kontexte kennen, die Sie hier als "gesunden Menschenverstand" bezeichnen.

Dies wurde in Roger Schank et al. Die Arbeit am Computerverständnis von Geschichten führt zu einer Menge Forschung über Wissensrepräsentation, Skripte, Pläne und Ziele. Ein Beispiel aus Schanks Arbeit ist, dass Mary hungrig war. Sie nahm einen Michelin-Führer mit. - Dies scheint keine Folge zu sein: Wenn Sie hungrig sind, warum sollten Sie ein Buch in die Hand nehmen? Bis Sie feststellen, dass es sich um einen Restaurantführer handelt und Mary vermutlich plant, in ein Restaurant zu gehen, um zu essen. Wenn Sie wissen, dass der Besuch eines Restaurants eine mögliche Lösung für das Problem des Hungers darstellt, haben Sie kein Problem damit, dieses Fragment der Geschichte zu verstehen.

Jede Geschichte braucht gesunden Menschenverstand, um verstanden zu werden, denn keine Geschichte ist vollständig explizit. Gemeinsame Dinge werden "verstanden" und nicht explizit erwähnt. Geschichten beziehen sich auf menschliche Erfahrungen, und eine Geschichte, die alles explizit machen würde, würde sich wahrscheinlich wie ein Computerprogramm lesen. Sie brauchen auch gesunden Menschenverstand, um zu verstehen, wie sich Charaktere in einer Geschichte verhalten und wie sie von dem, was passiert, beeinflusst werden. Auch dies ist sehr subjektiv, aber es ist notwendig. Ein gesunder Menschenverstand könnte allgemein anwendbar sein, andere Aspekte nicht. Es ist ein komplexes Thema, weshalb Forscher seit mindestens einem halben Jahrhundert KI-Forschung damit zu kämpfen haben.

Dies würde natürlich "menschliche Fehler" in ein KI-System einführen. All dies ist sehr subjektiv und kulturspezifisch. In ein Restaurant in den USA zu gehen ist anders als in Frankreich - deshalb kann es eine Herausforderung sein, ins Ausland zu gehen. Und meine Lektüre einer Geschichte wird sich wahrscheinlich von Ihrer unterscheiden. Wenn Sie jedoch menschliche Intelligenz simulieren möchten, können Sie dies nicht ohne potenzielle menschliche "Fehler" tun.


Kommentare sind nicht für eine ausführliche Diskussion gedacht. Dieses Gespräch wurde in den Chat verschoben .
nbro

2

Ich werde diese Frage in mehreren Teilen beantworten:

Warum müssen AGI-Systeme gesunden Menschenverstand haben?

Menschen in der wilden Vernunft und kommunizieren mehr mit gesundem Menschenverstand als mit strenger Logik. Sie können dies daran erkennen, dass es einfacher ist, die Emotionen eines Menschen anzusprechen als die Logik. Daher sollte jedes System, das versucht, die menschliche Erkenntnis zu replizieren (wie bei AGI), auch diese Tendenz zur Verwendung des gesunden Menschenverstandes replizieren.

Einfacher ausgedrückt, wir würden uns wünschen, dass unser AGI-System in der Sprache des gesunden Menschenverstandes zu uns sprechen kann, einfach weil wir das am besten verstehen (sonst würden wir unsere freundliche AGI nicht verstehen, oder?). Stumpfe Theorie und strenge Logik mögen technisch korrekt sein, appellieren aber nicht an unser Verständnis.

Ist das Ziel von AGI nicht die Schaffung des kognitiv fortschrittlichsten Systems? Warum sollte das "perfekteste" AGI-System mit solchen Unvollkommenheiten und Ungenauigkeiten umgehen müssen, die im gesunden Menschenverstand vorhanden sind?

Erstens scheint es nur so zu sein, dass die Logik des gesunden Menschenverstandes "irrational" ist. Vielleicht gibt es eine konsistente mathematische Methode, um den gesunden Menschenverstand so zu modellieren, dass alle Feinheiten des gesunden Menschenverstandes streng dargestellt werden.

Zweitens begann das frühe Studium der künstlichen Intelligenz mit dem Studium der Kognitionswissenschaft, wo Forscher versuchten, "Algorithmen des Geistes" zu replizieren, genauer gesagt: entscheidbare Verfahren, die das menschliche Denken replizierten. Insofern geht es beim Studium der KI nicht darum, den "höchsten kognitiven Wirkstoff" zu schaffen, sondern lediglich das menschliche Denken / Verhalten zu replizieren. Sobald wir menschliches Verhalten replizieren können, können wir vielleicht versuchen, etwas Übermenschliches zu erschaffen, indem wir ihm mehr Rechenleistung geben, aber das ist nicht garantiert.

Ich verstehe immer noch nicht, warum in AGI-Systemen gesunder Menschenverstand benötigt wird. Geht es bei AGI nicht darum, das intelligenteste und leistungsfähigste Computersystem zu sein? Warum sollte es sich um die Grenzen des menschlichen Verständnisses kümmern oder sich diesen anpassen, was gesunden Menschenverstand erfordert?

Vielleicht haben Sie dann ein falsches Verständnis dafür, was AGI bedeutet. AGI bedeutet nicht unbegrenzte Rechenleistung (physikalisch unmöglich aufgrund physikalischer Einschränkungen bei der Berechnung wie Bremermanns Grenze ) oder unbegrenzte Intelligenz (möglicherweise physikalisch unmöglich aufgrund der vorherigen Einschränkung). Es bedeutet normalerweise nur künstliche "allgemeine Intelligenz", allgemeine Bedeutung breit und allgemein.

Überlegungen zu unbegrenzten Agenten werden in Bereichen wie der theoretischen Informatik (Typentheorie, glaube ich), der Entscheidungstheorie und vielleicht sogar der Mengenlehre genauer untersucht, wo wir Fragen zu Agenten mit unbegrenzter Rechenleistung stellen können. Wir könnten sagen, dass es Fragen gibt, die selbst ein AGI-System mit unbegrenzter Leistung aufgrund des Halteproblems nicht beantworten kann , aber nur, wenn die Annahmen in diesen Feldern auf die Struktur des gegebenen AGI abgestimmt sind, was möglicherweise nicht zutrifft.

Um besser zu verstehen, was AGI bedeuten könnte und welche Ziele es verfolgt, empfehle ich zwei Bücher: Künstliche Intelligenz: Die Idee von John Haugeland für einen pragmatischeren Ansatz (so pragmatisch die KI-Philosophie sein kann, und Über den Ursprung von Objekten von Brian Cantwell Smith für einen philosophischeren Ansatz.

Abgesehen vom Spaß enthält die Sammlung von Zen Koans: The Gateless Gate die folgende Passage: (zitiert und bearbeitet aus Wikipedia )

Ein Mönch fragte Zhaozhou, einen chinesischen Zen-Meister: "Hat ein Hund Buddha-Natur oder nicht?" Zhaozhou antwortete: "Wú"

Wú (無) bedeutet "keine", "keine" oder "nichts", was so interpretiert werden kann, dass keine Ja- oder Nein-Antwort erfolgt. Dieses aufgeklärte Individuum versucht nicht, jede Frage streng zu beantworten, sondern nur auf eine sinnvolle Weise zu antworten. Es spielt keine Rolle, ob der Hund Buddha-Natur hat oder nicht (was auch immer Buddha-Natur bedeutet), daher löst der Meister die Frage standardmäßig aus, anstatt sie zu lösen.


3
Es wäre viel lustiger gewesen, wenn der Meister mit "wúf wúf!" Geantwortet hätte.
m3characters

1

Vielleicht wäre es hilfreich, ein Beispiel dafür zu geben, was ohne gesunden Menschenverstand schief gehen kann: Zu Beginn des Romans "Die zwei Gesichter von morgen" von James Hogan reicht ein Bauleiter auf dem Mond eine Anfrage bei einem automatisierten System ein und fragt danach Ein besonders großes Baumaschinenstück wird so schnell wie möglich an seinen Standort geliefert. Das System antwortet, dass es in zwanzig Minuten eintreffen wird. Zwanzig Minuten später wird der Aufseher getötet, als die Ausrüstung auf seine Baustelle stößt. Das System hatte festgestellt, dass der schnellste Weg, die Ausrüstung an diesen Standort zu liefern, darin bestand, sie auf einem Massentreiber zu montieren und am Standort zu starten. Wäre dem fraglichen System ein gesunder Menschenverstand gegeben worden, hätte es zusätzliche, nicht angegebene Einschränkungen für die Abfrage abgeleitet, z. B. "Die Ausrüstung sollte intakt ankommen". Das Eintreffen des Geräts darf keine Schäden oder Todesfälle verursachen. “ (Der Rest des Romans beschreibt ein Experiment, mit dem ein neues System mit gesundem Menschenverstand hergestellt werden soll.)


Sehr interessantes Beispiel. Vielleicht könnte es aber auch umgekehrt sein. Stellen Sie sich eine KI vor, die einen Patienten eincheckt, und schließen Sie aus dem normalen Aussehen des Patienten, dass der Patient in Ordnung sein könnte / sollte (basierend auf dem gesunden Menschenverstand, dass Sie es wahrscheinlich sind, wenn Sie gut aussehen). Der Patient benötigt jedoch ernsthafte Hilfe. Ich denke jedoch, dass es mittlerweile klar ist, dass gesunder Menschenverstand nicht das Problem ist, sondern fehlerhafter gesunder Menschenverstand / Wissen, das sich in kritischen Situationen als gefährlich herausstellen könnte. Ich denke, wir sollten kontrollieren und sicherstellen, dass die KI einen einwandfreien gesunden Menschenverstand hat.
Titan

0

Ist das gesunder Menschenverstand oder ist das natürliches Sprachverständnis?

Es wurde gesagt, dass das Verstehen natürlicher Sprache eine der schwierigsten KI-Aufgaben ist. Dies ist eines der Beispiele, die zeigen, warum. Der erste Teil des Satzes bezieht sich auf den zweiten Teil, wie Sätze funktionieren.

Die relevante Frage ist nun, wie die beiden Teile zusammenhängen. Es gibt einige Standardbeziehungen, denen wir begegnen, zum Beispiel eine zeitliche Ordnung. In diesem speziellen Beispiel liegt die Art der Beziehung näher an Ursache und Wirkung.

Sie sehen diesen Effekt, wenn wir ein Wort einfügen, um diese Beziehung explizit zu machen:

Es ist Johns Geburtstag, also kaufen wir ihm einen Drachen. oder Kaufen wir John einen Drachen, weil er Geburtstag hat.

Dies ist eine Technik für Menschen, um diese impliziten Beziehungen explizit zu machen.

Nun, wie neugierigdannii bemerkt, brauchen Sie auch das kulturelle Wissen, um zu verstehen, wie ein Geburtstag ein Grund für ein Geschenk sein kann. Dabei hilft kein gesunder Menschenverstand.


Wir benutzen den " gesunden Menschenverstand ", um einen solchen Satz zu verstehen. NLP ist wirklich schwer, stimme ich zu, und das liegt daran, dass die KI bisher nicht über dieses umfassende Wissen und Modell der Welt verfügt, das wir Menschen haben. Daher fehlt es ihm, die Punkte zu verbinden und diese impliziten Beziehungen zu verstehen. Das von Ihnen erwähnte " kulturelle Wissen " wird grundsätzlich als unser gesunder Menschenverstand angesehen.
Titan
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.