Im Oktober 2014 veröffentlichte Dr. Mark Riedl einen Ansatz zum Testen der KI-Intelligenz, den "Lovelace-Test 2.0" , der sich vom ursprünglichen Lovelace-Test (veröffentlicht im Jahr 2001) inspirieren ließ . Mark glaubte, dass der ursprüngliche Lovelace-Test nicht bestanden werden könne, und schlug daher eine schwächere und praktischere Version vor.
Der Lovelace-Test 2.0 geht davon aus, dass eine intelligente KI Kreativität zeigen muss. Aus dem Papier selbst:
Der Lovelace 2.0-Test sieht wie folgt aus: Der künstliche Wirkstoff a wird wie folgt herausgefordert:
a muss ein Artefakt o vom Typ t erzeugen;
o muss einer Reihe von Bedingungen C entsprechen, wobei ci ∈ C ein in natürlicher Sprache ausdrückbares Kriterium ist;
ein menschlicher Bewerter h, der t und C gewählt hat, ist überzeugt, dass o eine gültige Instanz von t ist und C erfüllt; und
Ein menschlicher Schiedsrichter bestimmt, dass die Kombination von t und C für einen durchschnittlichen Menschen nicht unrealistisch ist.
Da es für einen menschlichen Bewerter möglich ist, einige ziemlich einfache Einschränkungen für eine KI zu finden, die zu überwinden sind, wird von dem menschlichen Bewerter erwartet, dass er immer komplexere Einschränkungen für die KI findet, bis die KI ausfällt. Ziel des Lovelace-Tests 2.0 ist es , die Kreativität verschiedener KIs zu vergleichen und nicht wie beim Turing-Test eine klare Trennlinie zwischen "Intelligenz" und "Nicht-Intelligenz" zu schaffen.
Ich bin jedoch gespannt, ob dieser Test tatsächlich in einem akademischen Umfeld angewendet wurde oder im Moment nur als Gedankenexperiment angesehen wird. Der Lovelace-Test scheint in akademischen Situationen einfach anzuwenden zu sein (Sie müssen nur einige messbare Einschränkungen entwickeln, mit denen Sie das künstliche Agens testen können), er kann jedoch auch zu subjektiv sein (Menschen können in Bezug auf bestimmte Einschränkungen anderer Meinung sein und ob Ein kreatives Artefakt, das von einer KI hergestellt wurde, trifft tatsächlich auf das Endergebnis.