Wie würde eine KI Sprache lernen?


11

Ich dachte über AIs nach und wie sie funktionieren würden, als mir klar wurde, dass ich mir keine Möglichkeit vorstellen konnte, einer AI Sprache beizubringen. Ein Kind neigt dazu, Sprache durch Assoziationen von Sprache und Bildern mit einem Objekt zu lernen (z. B. Menschen, die das Wort "Hund" sagen, während sie sich in der Nähe eines Hundes befinden, und später erkennen, dass Menschen "einen Hund" und "ein Auto" sagen und lernen, was "a "bedeutet usw.). Eine textbasierte KI konnte diese Methode jedoch nicht zum Lernen verwenden, da sie keinen Zugriff auf irgendeine Art von Eingabegerät hatte.

Der einzige Weg, den ich finden könnte, ist das Programmieren in jedem Wort und in der Regel in der englischen Sprache (oder in der Sprache, in der es "sprechen" soll), aber das würde möglicherweise Jahre dauern.

Hat jemand Ideen, wie das gemacht werden könnte? Oder wenn es schon gemacht wurde, wenn ja wie?

Übrigens verwende ich in diesem Zusammenhang KI, um ein System der künstlichen Intelligenz mit nahezu menschlicher Intelligenz und ohne vorherige Sprachkenntnisse zu bezeichnen.

Antworten:


12

Das allgemeine Forschungsgebiet ist als Grammatikinduktion bekannt .

Es wird im Allgemeinen als überwachtes Lernproblem dargestellt, wobei die Eingabe als Rohtext und die gewünschte Ausgabe als entsprechender Analysebaum dargestellt wird . Das Trainingsset besteht oft aus positiven und negativen Beispielen.

Es gibt keine einzige beste Methode, um dies zu erreichen, aber einige der bisher verwendeten Techniken umfassen:


6

Der Überbegriff für Ihr Problem heißt Natural Language Processing (NLP) - ein Thema unter künstlicher Intelligenz.

Es gibt viele Unterthemen in diesem Bereich, einschließlich Sprachsemantik, grammatikalische Analyse, Teile der Sprachkennzeichnung, domänenspezifische Kontextanalyse usw.


5

Der Vollständigkeit halber möchte ich darauf hinweisen, dass wiederkehrende neuronale Netze (dh neuronale Netze mit Rückwärtsverbindungen) häufig für die Verarbeitung natürlicher Sprache (NLP) verwendet werden. Dies umfasst Varianten wie Bidirectional, Jordan und Elman Networks. Long Short-Term Memory (LSTM) ist ein ausgefeilterer neuronaler Netzalgorithmus, der die gleichen zeit- und sequenzbasierten Aufgaben ausführen kann, aber Standard-Lernmethoden wie Backprop nutzen kann, da er nicht unter dem "Problem des verschwindenden Gradienten" leidet. Dies liegt daran, dass LSTMs hervorragend als "perfekte Integratoren" entwickelt wurden, was die Berechnung der Fehlergradienten usw. über lange Zeiträume erheblich vereinfacht. Im Gegensatz, Das Lernen mit RNNs ist theoretisch immer noch nicht fundiert und lässt sich mit vorhandenen Methoden wie Backpropagation Through Time (BPTT) nur schwer berechnen. In Time Delay Neural Networks (TDNNs) besteht die Idee darin, jedem neuen Trainingsbeispiel über einen bestimmten Zeitraum oder eine bestimmte Trainingssequenz neue Neuronen und Verbindungen hinzuzufügen. Leider ist die Anzahl der Beispiele, die Sie in das Netz einspeisen können, praktisch begrenzt, bevor die Größe des Netzwerks außer Kontrolle gerät oder wie bei RNNs vergessen wird. LSTMs haben viel längere Speicher (insbesondere wenn sie mit neuronalen Turing-Maschinen erweitert wurden), so dass dies meine erste Wahl wäre, vorausgesetzt, ich wollte neuronale Netze für NLP-Zwecke verwenden. Meine Kenntnisse des Themas sind jedoch begrenzt (ich versuche immer noch, die Seile zu lernen), so dass es möglicherweise andere wichtige Algorithmen für neuronale Netze gibt, die ich übersehen habe ...

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.