Was sind die notwendigen Komponenten, um AI Agent selbstprogrammierbar zu machen?


9

Ein KI-Agent wird oft als "Sensor" -, "Speicher" -, "Prozessor für maschinelles Lernen" - und "Reaktions" -Komponenten angesehen. Eine Maschine mit diesen wird jedoch nicht unbedingt zu einem selbstprogrammierenden KI-Agenten. Gibt es neben den oben genannten Teilen noch weitere Elemente oder Details, die erforderlich sind, um eine Maschine zu einem selbstprogrammierenden KI-Agenten zu machen?

In einem Papier aus dem Jahr 2011 wurde beispielsweise erklärt, dass die Lösung des Optimierungsproblems der Maximierung der Intelligenz ein Muss für den Selbstprogrammierungsprozess ist, wie unten angegeben:

Ein System soll eine Instanz der Selbstprogrammierung ausführen, wenn es in Bezug auf ein Element seiner "kognitiven Infrastruktur" gelernt wird, wobei letztere als die unscharfe Menge von "nachrichtenkritischen" Merkmalen des Systems definiert wird. und die Intelligenzkritikalität eines Systemmerkmals wird als seine "Merkmalsqualität" definiert, die unter dem Gesichtspunkt der Lösung des Optimierungsproblems der Maximierung der Intelligenz eines Systems mit mehreren Merkmalen betrachtet wird.

Diese Beschreibung der "Optimierung der Intelligenz" ist jedoch vage. Kann jemand eine klare Definition oder bessere Zusammenfassung der notwendigen Komponenten für selbstprogrammierende Agenten geben?

Diese Frage stammt aus der Closed Beta 2014, wobei der Fragesteller eine UID von 23 hat.


3
Hier ist so ziemlich das letzte Wort zur Selbstoptimierung: arxiv.org/abs/cs/0309048
NietzscheanAI

Vielen Dank für die Wiederbelebung der verlorenen und guten Inhalte in der verlorenen Beta. :-)
Peterh - Wiedereinstellung Monica

Antworten:


5

Auf höchster Ebene müssen lediglich die verschiedenen bereits diskutierten Systeme Codeobjekte enthalten. Wenn es seinen Quellcode / seine Modellarchitektur anhand der ihnen zugrunde liegenden formatierten Textobjekte interpretieren kann, sie im Hinblick auf ein nützliches ML-Modell "verstehen" und den Code mit seiner Reaktion ändern kann, kann es sich selbst programmieren.

Das heißt, die grundlegende Schleife hinter einer rekursiv verbesserten Intelligenz ist einfach. Es prüft sich selbst, schreibt eine neue Version, und dann prüft sich diese neue Version selbst und schreibt eine neue Version und so weiter.

Die schwierige Komponente kommt auf niedrigeren Ebenen. Wir müssen kein neues Konzept wie "Sensor" erfinden. Wir müssen nur sehr, sehr hoch entwickelte Sensoren bauen, die der Aufgabe entsprechen, Code gut genug zu verstehen, um Verbesserungen zu erkennen und zu schreiben.


2
Obwohl die Reaktion der Informatik auf Aussagen über Systeme, die ihren eigenen Code verstehen, häufig darin besteht, das Problem des Anhaltens zu zitieren, stellt sich heraus, dass KI-Ansätze dazu etwas Nützliches zu sagen haben: cs.stackexchange.com/questions/62393/ …
NietzscheanAI

3
Richtig, das Halteproblem ist ein No-Go-Theorem, um den gesamten möglichen Code vollständig zu verstehen , aber es hindert einen nicht daran, die meisten Codes, auf die Sie tatsächlich stoßen, gut zu verstehen.
Matthew Graves

Realistisch gesehen gilt das Problem des Anhaltens nur für "Drehmaschinen", bei denen es sich um rein mathematische Konstrukte handelt, die nicht wirklich existieren können (sie benötigen beispielsweise ein unendliches Band für unbegrenzten Speicher) und die unendlich lange laufen können. Computer in der realen Welt verfügen nur über begrenzte Speichermengen. Es gibt Möglichkeiten, Software zu schreiben, die formal überprüft werden kann (Idris, Coq). Abhängige Typen verwenden. Begrenzen Sie die Größe eines Arrays (dh <die Menge oder den RAM). Es ist einem Programm nicht gestattet, sich im Speicher so zu ändern, dass die formalen Beweise verletzt werden. Keine Endlosschleifen. Keine Byteschleife / Division durch Null. Usw.
David C. Bishop
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.