Starke AIs
Für eine starke KI lautet die kurze Antwort, um Hilfe zu rufen, wenn sie nicht einmal wissen, was die angebliche Hilfe sein könnte.
Es hängt davon ab, was die KI tun würde. Wenn es eine einfache Aufgabe perfekt und professionell lösen soll, wären Emotionen sicher nicht sehr nützlich. Aber wenn es zufällige neue Dinge lernen soll, gibt es einen Punkt, an dem es auf etwas stößt, mit dem es nicht umgehen kann.
In Lee Sedol gegen AlphaGo Match 4 äußerte sich ein Profi, der gesagt hat, dass Computer vorher keine Emotionen haben, dazu, dass AlphaGo vielleicht auch Emotionen hat und stärker als Menschen. In diesem Fall wissen wir, dass das verrückte Verhalten von AlphaGo nicht durch absichtlich hinzugefügte Dinge verursacht wird, die als "Emotionen" bezeichnet werden, sondern durch einen Fehler im Algorithmus. Aber es verhält sich genauso, als wäre es in Panik geraten.
Wenn dies für eine KI häufig vorkommt. Es könnte Vorteile geben, wenn es dies selbst weiß und zweimal überlegt, wenn es passiert. Wenn AlphaGo das Problem erkennen und seine Strategie ändern könnte, könnte es besser oder schlechter spielen. Es ist nicht unwahrscheinlich, dass es schlechter wird, wenn überhaupt keine Berechnungen für andere Ansätze durchgeführt werden. Im Falle, dass es schlechter wird, könnte man sagen, dass es unter "Emotionen" leidet, und dies könnte der Grund sein, warum manche Leute glauben, dass Emotionen ein Fehler des Menschen sein könnten. Aber das wäre nicht die wahre Ursache des Problems. Die wahre Ursache ist, dass es einfach keine Ansätze kennt, um das Gewinnen zu garantieren, und die Änderung der Strategie ist nur ein Versuch, das Problem zu beheben. Kommentatoren denken, dass es bessere Wege gibt (die auch nicht garantieren, dass sie gewinnen, aber mehr Chancen hatten), aber ihr Algorithmus ist nicht nicht in der Lage, in dieser Situation herauszufinden. Sogar für den Menschen ist es unwahrscheinlich, dass die Lösung für irgendetwas, das mit Emotionen zu tun hat, Emotionen beseitigt, aber ein gewisses Training, um sicherzustellen, dass Sie die Situation so gut verstehen, dass Sie ruhig handeln können.
Dann muss sich jemand darüber streiten, ob dies eine Art Emotion ist oder nicht. Wir sagen normalerweise nicht, dass kleine Insekten menschenähnliche Gefühle haben, weil wir sie nicht verstehen und nicht bereit sind, ihnen zu helfen. Aber es ist leicht zu wissen, dass einige von ihnen in verzweifelten Situationen in Panik geraten können, so wie es AlphaGo tat. Ich würde sagen, diese Reaktionen basieren auf der gleichen Logik und sind zumindest der Grund, warum menschenähnliche Emotionen möglicherweise nützlich sein können. Sie werden einfach nicht auf vom Menschen verständliche Weise ausgedrückt, da sie nicht beabsichtigten, einen Menschen um Hilfe zu rufen.
Wenn sie versuchen, ihr eigenes Verhalten zu verstehen oder jemanden um Hilfe zu rufen, ist es möglicherweise gut, genau menschlich zu sein. Einige Haustiere können menschliche Emotionen spüren und bis zu einem gewissen Grad menschlich verständliche Emotionen ausdrücken. Der Zweck ist es, mit Menschen zu interagieren. Sie entwickelten sich zu dieser Fähigkeit, weil sie sie irgendwann brauchten. Es ist wahrscheinlich, dass eine voll starke KI es auch brauchen würde. Beachten Sie auch, dass das Gegenteil von vollen Emotionen verrückt werden kann.
Es ist wahrscheinlich ein schneller Weg, das Vertrauen zu verlieren, wenn man Emotionen, die Menschen imitieren, nur mit wenig Verständnis gleich in den ersten Generationen einsetzt.
Schwache AIs
Aber gibt es einen Grund, warum sie Emotionen haben sollten, bevor jemand eine starke KI haben wollte? Ich würde nein sagen, es gibt keine inhärenten Gründe, warum sie Emotionen haben müssen. Aber zwangsläufig wird jemand sowieso nachgeahmte Emotionen implementieren wollen. Ob "wir" sie brauchen, um Emotionen zu haben, ist Unsinn.
Tatsache ist sogar, dass einige Programme ohne Intelligenz einige "emotionale" Elemente in ihren Benutzeroberflächen enthielten. Sie sehen vielleicht unprofessionell aus, aber nicht jede Aufgabe erfordert Professionalität, sodass sie durchaus akzeptabel sein können. Sie sind genau wie die Emotionen in Musik und Kunst. Jemand wird auch seine schwache KI auf diese Weise entwerfen. Aber sie sind nicht wirklich die Emotionen der AIs, sondern die ihrer Schöpfer. Wenn Sie sich aufgrund ihrer Emotionen besser oder schlechter fühlen, werden Sie einzelne AIs nicht so unterschiedlich behandeln, sondern dieses Modell oder diese Marke als Ganzes.
Alternativ könnte jemand dort einige Persönlichkeiten wie in einem Rollenspiel einsetzen. Auch hier gibt es keinen Grund, warum sie das haben müssen, aber zwangsläufig wird es jemand tun, weil sie offensichtlich einen Markt hatten, wenn ein Rollenspiel dies tut.
In beiden Fällen stammen die Emotionen nicht wirklich von der KI selbst. Und es wäre einfach zu implementieren, da ein Mensch nicht erwartet, dass sie genau wie ein Mensch sind, sondern versucht zu verstehen, was sie bedeuten sollen. Es könnte viel einfacher sein, diese Emotionen zu akzeptieren, die dies erkennen.
Aspekte von Emotionen
Es tut uns leid, dass Sie hier einige Originalrecherchen veröffentlicht haben. Ich habe 2012 eine Liste von Emotionen erstellt, aus der ich 4 Aspekte von Emotionen ersehen kann. Wenn sie alle umgesetzt werden, würde ich sagen, dass sie genau die gleichen Emotionen haben wie Menschen. Sie scheinen nicht real zu sein, wenn nur einige von ihnen implementiert sind, aber das bedeutet nicht, dass sie völlig falsch sind.
- Der Grund oder das ursprüngliche logische Problem, das die KI nicht lösen kann. AlphaGo hatte schon den Grund, aber sonst nichts. Wenn ich eine genaue Definition vornehmen muss, würde ich sagen, dass es der Zustand ist, in dem mehrere gleich wichtige Heuristiken nicht miteinander übereinstimmen.
- Der Kontext oder welcher Teil des aktuellen Ansatzes funktioniert nicht gut und sollte wahrscheinlich ersetzt werden. Dies unterscheidet zwischen Traurigkeit, Sorge und Leidenschaft.
- Der aktuelle Zustand oder ob es sich führend anfühlt oder ob sein Glaube oder die Tatsache zuerst schlecht werden soll (oder die ganze Zeit schlecht war), wenn etwas schief geht. Dies unterscheidet zwischen Traurigkeit, Liebe und Stolz.
- Der Plan oder die Anfrage. Ich nehme an, einige Haustiere hatten dies bereits. Und ich nehme an, diese hatten einige feste Muster, die nicht allzu schwer zu haben sind. Sogar Künste können sie leicht enthalten. Im Gegensatz zu den Gründen sind diese wahrscheinlich keinem Algorithmus inhärent, und mehrere von ihnen können zusammen auftreten.
- Wer hatte angeblich die Verantwortung, wenn nichts von der Emotion geändert wird. Das unterscheidet Neugier, Wut und Trauer.
- Was ist der angebliche Plan, wenn sich durch die Emotion nichts ändert? Das unterscheidet Enttäuschung, Trauer und Überraschung.
- Die Quelle. Ohne Kontext kann selbst ein Mensch nicht zuverlässig sagen, dass jemand nach Bewegung oder Dankbarkeit schreit oder nach einer Art Verlegenheit lächelt. In den meisten anderen Fällen gibt es nicht einmal Worte, die sie beschreiben. Es macht keinen großen Unterschied, wenn eine KI dies nicht besonders unterscheidet oder zeigt. Es ist wahrscheinlich, dass sie diese automatisch (und als Mensch ungenau) lernen würden, wenn sie lernen könnten, menschliche Sprachen zu verstehen.
- Die Messungen, wie z. B. wie dringend oder wichtig das Problem ist oder sogar wie wahrscheinlich die Emotionen wahr sind. Ich würde sagen, dass es nicht in der KI implementiert werden kann. Menschen müssen sie nicht respektieren, auch wenn sie genau wie Menschen sind. Aber Menschen werden lernen, wie man eine KI versteht, wenn das wirklich wichtig ist, auch wenn sie überhaupt nicht wie Menschen sind. Tatsächlich habe ich das Gefühl, dass einige der extrem schwachen Emotionen (wie etwa das Denken, dass etwas zu dumm und langweilig ist, als dass Sie nicht wissen, wie man Kommentare abgibt) fast ausschließlich in Emoticons vorhanden sind, in denen jemand genau diese Emotion zeigen möchte, und kaum im wirklichen Leben oder in komplexen Szenerien wahrnehmbar. Ich nahm an, dass dies am Anfang auch für KIs der Fall sein könnte. Im schlimmsten Fall werden sie üblicherweise als "Emotionen" bezeichnet, da Emoticons in diesen Fällen funktionieren.
Wenn also starke AIs möglich werden, ist keines davon nicht mehr erreichbar, obwohl möglicherweise eine Menge Arbeit erforderlich ist, um die Verbindungen herzustellen. Ich würde also sagen, wenn starke AIs nötig wären, hätten sie absolut Emotionen.