Ist Bewusstsein für eine KI-Aufgabe notwendig?


14

Die Definition des Bewusstseins ist schwierig , aber für diese Frage definieren wir es als "tatsächlich sensorische Eingaben erfahren, anstatt nur eine Reihe von Daten durch eine unbelebte Maschine zu schicken". Menschen haben natürlich einen Verstand; Für normale Computer sind alle Dinge, die sie "sehen", nur mehr Daten. Man könnte alternativ sagen, dass Menschen empfindungsfähig sind , während dies bei herkömmlichen Computern nicht der Fall ist.

Abgesehen von der Frage, ob es möglich ist, eine empfindungsfähige Maschine zu bauen, spielt es tatsächlich eine Rolle, ob eine KI empfindungsfähig ist oder nicht? Mit anderen Worten, gibt es Aufgaben, die durch mangelndes Empfinden nicht nur erschwert, sondern unmöglich gemacht werden?


Relevante Metadiskussion zur AI-bezogenen Philosophie.
Ben N

Natürlich sind alle Dinge, die wir "sehen", nur Daten - elektrische Impulse, die über optische Nerven laufen.
Nathan ReinstateMonica Arthur

@ NathanArthur Er spricht nicht über die Dinge, die wir sehen, sondern über die Erfahrung, sich selbst zu sehen.
David Schwartz

@DavidSchwartz Punkt genommen. :)
Nathan ReinstateMonica Arthur

Sie müssen "KI" und "Aufgabe" besser definieren oder, wenn diese zusammengenommen werden sollen, "jede KI-Aufgabe" definieren. Expertensysteme werden als schwache KI eingestuft und erfüllen ihre spezifischen Aufgaben recht gut. In diesem Fall ist die Antwort sehr klar: Nein, es ist kein Bewusstsein erforderlich, um eine Diagnose zu erstellen, wenn eine Reihe von Symptomen vorliegt.
CramerTV

Antworten:


10

Niemand weiß.

Warum: Weil es nicht einmal formal möglich ist, festzustellen, ob Ihre Mitmenschen tatsächlich bei Bewusstsein sind (sie können stattdessen das sein, was man philosophisch als "Zombie" bezeichnet ). Kein der modernen Physik bekannter Test reicht aus, um zu entscheiden. Daher ist es möglich, dass Sie das einzige Lebewesen sind und jeder andere ein Roboter ist.

Folglich können wir nicht feststellen, welche Aufgaben Empfindungsvermögen erfordern.

Beachten Sie, dass der ontologische Status von Zombies umstritten ist: Einige Philosophen der KI (z. B. Daniel Dennett) behaupten, dass Zombies logisch unmöglich sind, während andere wie David Chalmers behaupten würden, dass ein Zombie gezwungen wäre, zu behaupten, dass sie qualia erfahren (dh empfindsam sind) obwohl sie es nicht tun. Hier ist eine sehr lesenswerte Veröffentlichung von Flanagan und Polger, die auch erklärt, warum eine stärkere neurologische Version des Turing-Tests nicht ausreicht, um einen Zombie zu entdecken.

BEARBEITEN: Als Antwort auf die Bemerkung, ob ein objektiver Test zur Unterscheidung von Empfindung und Nicht-Empfindung existiert:

Niemand weiß. Was wir tun glauben, dass dies etwas zusätzlich erfordern würde , was die Physik moderner können uns zum jetzigen Zeitpunkt sagen. David Chalmers hat spekuliert, dass Qualia als eine neue Form der physikalischen Einheit eingeführt werden sollte, die orthogonal zu den anderen ist, genauso wie die elektrische Ladung orthogonal zur Entfernung ist.

In Ermangelung eines objektiven Tests müssen wir uns auf Turing-Testvarianten verlassen, die das Bewusstsein in der Testperson nicht mehr garantieren als die Intelligenz.


Ich denke, Sie nehmen dies aus solipsistischer Sicht und antworten nicht direkt auf die Frage: "Welche Aufgaben könnten neu möglich sein, WENN das Empfinden und die Fähigkeit zum Erleben etwas sind, das wir einer KI geben könnten". Stattdessen sprichst du an, wie das Empfinden in anderen Wesen funktioniert.
Avik Mohan

2
Das liegt daran, dass es (gerade zum Zwecke der Erörterung des Empfindungsvermögens) keinen Unterschied zwischen „angeblich bewussten KIs“ und „anderen Menschen“ gibt. Welche Aufgaben kann ich tun, die Sie nicht können, vorausgesetzt, Sie sind vielleicht ein Roboter (obwohl es unmöglich zu sagen ist), obwohl ich weiß, dass ich es nicht bin? Es gibt keine solchen Aufgaben. QED.
NietzscheanAI

Du nimmst ein anderes angenommenes Lebewesen und sagst, dass du nicht sicher bist, ob es Lebewesen ist, also gibt es keine Aufgaben, die meine Nicht-Lebewesen behindern. Also erstens, Sie haben scheinen , die Antwort zu wissen, ist es ‚Nein‘ zu sein; zweitens ignorieren Sie immer noch die Frage, wo er die Definition des Bewusstseins angibt, das er verwenden möchte - Sie schieben einfach beiseite, wo er sagt: "Die Frage beiseite, ob es möglich ist, eine empfindungsfähige Maschine zu bauen ..." . Sie konzentrieren sich ausschließlich darauf, ob eine solche Maschine möglich ist, nicht darauf, was dies impliziert.
Avik Mohan

2
Es geht nicht darum, ob eine solche Maschine existieren könnte (Hinweis: es ist - ich bin eine). Der entscheidende Punkt ist, dass es keinen physischen Test gibt, der die Aussage beweist oder widerlegt, dass "Maschinen Qualia-Leistung für Aufgabe X benötigen" , da wir die Qualia-Erfahrung in anderen Entitäten nicht bestimmen können.
NietzscheanAI

1
Wenn das OP eine andere Definition verwendet hätte als "tatsächlich erleben", z. B. die Frage "Welche zusätzlichen Aufgaben könnten durch Metakognition möglich sein?", Dann wäre die Antwort anders. So wie es aussieht, ist "tatsächliche Erfahrung" = Qualia, ein gut diskutiertes Thema in der KI-Philosophie.
NietzscheanAI

4

Nein.

Die Erfahrung des Sehens ist per definitionem nicht kausal. Alles, was nicht kausal ist, kann keine Voraussetzung für einen physischen Prozess sein. Eine Qualia kann es sich nicht leisten, dass ein Roboter etwas kann, was er sonst nicht kann.

Könnte sein.

Obwohl für eine bestimmte KI-Aufgabe keine Qualifikation erforderlich ist, bedeutet dies nicht, dass für eine ausreichend fortgeschrittene KI keine Qualifikation erforderlich ist. Es kann sein, dass für sogenannte AI-Complete-Aufgaben ein Roboter benötigt wird, der zwar keine Qualia verwendet, aber trotzdem produziert.

Ja.

Qualia bezieht sich möglicherweise auf einige nicht-physikalische Eigenschaften, aber es ist insofern besonders, als wir wissen, dass sie auch physisch existieren. Die Tatsache, dass ich in der Lage bin, meine Qualia wissentlich zu besprechen (oder, wenn Sie mir nicht glauben, die Tatsache, dass Sie in der Lage sind), impliziert, dass meine (oder Ihre) Qualia einen physischen Effekt haben.

Es liegt auf der Hand, dass wir, wenn wir die Qualifikationen anderer auf der Grundlage unserer eigenen akzeptieren, dies auf der physischen Grundlage unserer eigenen 1 beruhen müssen . Man könnte also argumentieren, dass 2 jeder Roboter, der eine äquivalente physische Kapazität hat , qualia mit sich bringen muss .

1 da das subjektive physisch nicht kausal ist, kann es uns nicht veranlassen, etwas zu akzeptieren.

2 Solange Sie nicht die seltsame Annahme treffen, dass Qualia in irgendeiner Weise an ihre direkte physische Manifestation gebunden ist, die bestenfalls schwach ist, da wir die falsche entwickelt hätten, würden Sie immer noch behaupten, sie sei die richtige mit gleicher Gewissheit.


2

Verwenden wir einen einfachen Test, der auf gesundem Menschenverstand basiert: Wie oft sieht man einen Menschen Probleme lösen, die die Verwendung von Vernunft erfordern, wenn er bewusstlos ist? Ja, es gibt Beispiele von Genies wie Ramanujan, die komplexe Probleme während oder nach einem Traumzustand lösen, aber diese beinhalten Teilbewusstsein. Leute wie Einstein kommen im Koma nicht auf die Relativitätstheorie. Die Gründerväter haben die Unabhängigkeitserklärung nicht im Schlaf geschrieben. Tatsächlich gibt es nicht einmal Fälle, in denen Hausfrauen während des tiefen Deltawellenschlafs ihre Einkaufsliste für die Woche zusammenstellen. Dies basiert auf einer harten Definition von Intelligenz, die die Verwendung von Vernunft erfordert. Niemand sagt: "Diese Fliege ist intelligent" oder "Dieses Eichhörnchen ist intelligent". gerade weil keiner der beiden die Vernunft gebrauchen kann. Dies ist eine sehr hohe Messlatte für KI, aber es ist die Definition des gesunden Menschenverstands, die von gewöhnlichen Menschen aus praktischen Gründen in der täglichen Sprache verwendet wird. Ebenso geht in der Praxis jeder davon aus, dass Bewusstsein für die Ausübung dieser Art von Intelligenz notwendig ist.

Umgekehrt können wir ein weiteres vernünftiges Kriterium für die Beurteilung von Einwänden gegen dieses Argument finden, insbesondere das solipsistische, das auf drei Elementen beruht: 1) Praktikabilität; 2) die Wirkung der Einwände auf diejenigen, die sie aufrichtig vertreten; und 3) die Wirkung, die Handlungen, die auf diesen Überzeugungen beruhen, auf andere haben. Sie haben läuft dagegen.Ich werde einige Absätze benötigen, um diesen Fall zu klären, aber die Länge ist notwendig, wenn ich den Fall vollständig und gründlich klären möchte. Es ist wahr, dass wir nicht beweisen können, dass ein anderer Mensch das Bewusstsein besitzt, wenn unser Maßstab ein absoluter Beweis ist. Wir können in der Tat keinen absoluten Beweis für irgendetwas liefern; Es gibt immer Raum für Einwände, egal wie lächerlich oder unbedeutend. Wie einige Philosophen hervorgehoben haben, ist die gesamte Realität, wie wir sie kennen, vielleicht nur ein Traum oder das Ergebnis einer langen Verschwörung wie der Handlung des Jim Carrey-Films The Truman Show. Der Schlüssel, um solchen Einwänden zu begegnen, besteht darin, dass sie einen unendlichen Rückschritt von zunehmend unhaltbaren Einwänden erfordern, deren Wahrscheinlichkeit mit jedem zusätzlichen Schritt sinkt, der erforderlich ist, um solche unvernünftigen Zweifel zu rechtfertigen. Ich habe mich schon immer gefragt, ob wir eine "Lächerlichkeitsmetrik" für maschinelles Lernen entwickeln könnten, die auf der Kardinalität solcher Einwände (oder auf der Genauigkeit von Fuzzy-Mengen) basiert. Wenn wir es zulassen würden, dass Kritiker mit allen möglichen unvernünftigen Einwänden ihren Fuß in die Tür setzen, wäre es unmöglich, eine Debatte abzuschließen. Die Menschheit wäre in Untätigkeit gelähmt, weil nichts entscheidbar wäre; Aber wie die Rockband Rush einmal betonte: "Wenn Sie sich nicht entscheiden, haben Sie immer noch eine Wahl getroffen." Irgendwann müssen wir einen Test durchführen, um solche Dinge zu entscheiden, auch wenn es keinen absoluten Beweis gibt. Die Weigerung, einen Test durchzuführen, ist ebenfalls eine Entscheidung. Eine solche Auseinandersetzung zu regeln, ist wie ein Spiel des chinesischen Spiels. Gehen Sie - sobald der andere Spieler umzingelt ist und keine weiteren Züge mehr zu machen hat, ist das Spiel vorbei. Wenn die Beweise einer Person entlarvt wurden und sie keine weiteren Rechtfertigungen mehr hat, können wir daraus schließen, dass sie unvernünftig handelt. Es gibt Leute, die herumrennen und behaupten, der Holocaust sei nie passiert, oder die Flat Earth Society usw., aber ihre Existenz sollte und hindert uns nicht daran, gegen ihre Vorstellungen vorzugehen. Wir können die Einwände von Kurbeln wie der Flat Earth Society zweifelsfrei entkräften, weil sie am Ende einfach nicht alle unsere Widerlegungen beantworten können. Ich bin froh, dass qualia und Philosophical Zombies ins Leben gerufen wurden, weil sie interessante Gespräche und Denkanstöße liefern, aber Solipsismus wird genauso selten behandelt wie die Ideen der Flat Earth Society, gerade weil wir unvollständige Beweise haben Wir können die Einwände von Kurbeln wie der Flat Earth Society zweifelsfrei entkräften, weil sie am Ende einfach nicht alle unsere Widerlegungen beantworten können. Ich bin froh, dass qualia und Philosophical Zombies ins Leben gerufen wurden, weil sie interessante Gespräche und Denkanstöße liefern, aber Solipsismus wird genauso selten behandelt wie die Ideen der Flat Earth Society, gerade weil wir unvollständige Beweise haben Wir können die Einwände von Kurbeln wie der Flat Earth Society zweifelsfrei entkräften, weil sie am Ende einfach nicht alle unsere Widerlegungen beantworten können. Ich bin froh, dass qualia und Philosophical Zombies ins Leben gerufen wurden, weil sie interessante Gespräche und Denkanstöße liefern, aber Solipsismus wird genauso selten behandelt wie die Ideen der Flat Earth Society, gerade weil wir unvollständige Beweise haben

Wie GK Chesterton (alias "Der Apostel des gesunden Menschenverstands") in seiner klassischen Orthodoxie betontEin radikaler Zweifel, wie ihn viele klassische Philosophen predigten, ist kein Weg zur Weisheit, sondern zum Wahnsinn. Sobald wir über einen vernünftigen Zweifel hinausgehen, werden wir unangemessen handeln. Er sagt, dass wir ohne absoluten Beweis auf eine andere sekundäre Form des Beweises zurückgreifen können: ob die Philosophie einer Person einen Mann zu Hanwell führt, der berüchtigten britischen Anstalt für geistige Gesundheit. Chesterton macht einen guten Beweis dafür, dass Menschen, die tatsächlich auf Ideen wie Solipsismus reagieren (anstatt sie nur pedantisch in einem mit Efeu bedeckten Klassenzimmer zu diskutieren), verrückt werden Kriterien für bestimmte Formen der Schizophrenie. Die Entmenschlichung, die eintritt, wenn radikale Zweifel an Qualia geäußert werden, ist auch eng mit soziopathischem Verhalten verbunden. Obwohl GKC sein gruseliges Beispiel nicht direkt zitiert, war Rene Descartes selbst der lebende Beweis. Er war ein brillanter Mathematiker, der immer noch erfreut ist, alles außer seiner eigenen Existenz anzuzweifeln, mit der berühmten Maxime "Ich denke, deshalb bin ich es". Descartes trug aber auch eine Puppe seiner toten Schwester mit sich in europäische Cafés, wo man ihn mit ihnen plaudern sah. Das Entscheidende dabei ist, dass wir den Wert einer Idee danach beurteilen können, wie sie sich auf das Wohlergehen des Gläubigen auswirkt oder wie sie wiederum andere durch ethische Entscheidungen beeinflussen, die auf diesen Überzeugungen basieren. Wenn Menschen tatsächlich auf radikale Zweifel reagieren, wie sie in Solipsismus und Verleugnung gemeinsamer Qualifikationen zum Ausdruck kommen, wirkt sich dies oft nachteilig auf sie und andere aus, mit denen sie in Kontakt kommen. Er war ein brillanter Mathematiker, der immer noch erfreut ist, alles außer seiner eigenen Existenz anzuzweifeln, mit der berühmten Maxime "Ich denke, deshalb bin ich es". Descartes trug aber auch eine Puppe seiner toten Schwester mit sich in europäische Cafés, wo man ihn mit ihnen plaudern sah. Das Entscheidende dabei ist, dass wir den Wert einer Idee danach beurteilen können, wie sie sich auf das Wohlergehen des Gläubigen auswirkt oder wie sie wiederum andere durch ethische Entscheidungen beeinflussen, die auf diesen Überzeugungen basieren. Wenn Menschen tatsächlich auf radikale Zweifel reagieren, wie sie in Solipsismus und Verleugnung gemeinsamer Qualifikationen zum Ausdruck kommen, wirkt sich dies oft nachteilig auf sie und andere aus, mit denen sie in Kontakt kommen. Er war ein brillanter Mathematiker, der immer noch erfreut ist, alles außer seiner eigenen Existenz anzuzweifeln, mit der berühmten Maxime "Ich denke, deshalb bin ich es". Descartes trug aber auch eine Puppe seiner toten Schwester mit sich in europäische Cafés, wo man ihn mit ihnen plaudern sah. Das Entscheidende dabei ist, dass wir den Wert einer Idee danach beurteilen können, wie sie sich auf das Wohlergehen des Gläubigen auswirkt oder wie sie wiederum andere durch ethische Entscheidungen beeinflussen, die auf diesen Überzeugungen basieren. Wenn Menschen tatsächlich auf radikale Zweifel reagieren, wie sie in Solipsismus und Verleugnung gemeinsamer Qualifikationen zum Ausdruck kommen, wirkt sich dies oft nachteilig auf sie und andere aus, mit denen sie in Kontakt kommen. Descartes trug aber auch eine Puppe seiner toten Schwester mit sich in europäische Cafés, wo man ihn mit ihnen plaudern sah. Das Entscheidende dabei ist, dass wir den Wert einer Idee danach beurteilen können, wie sie sich auf das Wohlergehen des Gläubigen auswirkt oder wie sie wiederum andere durch ethische Entscheidungen beeinflussen, die auf diesen Überzeugungen basieren. Wenn Menschen tatsächlich auf radikale Zweifel reagieren, wie sie in Solipsismus und Verleugnung gemeinsamer Qualifikationen zum Ausdruck kommen, wirkt sich dies oft nachteilig auf sie und andere aus, mit denen sie in Kontakt kommen. Descartes trug aber auch eine Puppe seiner toten Schwester mit sich in europäische Cafés, wo man ihn mit ihnen plaudern sah. Das Entscheidende dabei ist, dass wir den Wert einer Idee danach beurteilen können, wie sie sich auf das Wohlergehen des Gläubigen auswirkt oder wie sie wiederum andere durch ethische Entscheidungen beeinflussen, die auf diesen Überzeugungen basieren. Wenn Menschen tatsächlich auf radikale Zweifel reagieren, wie sie in Solipsismus und Verleugnung gemeinsamer Qualifikationen zum Ausdruck kommen, wirkt sich dies oft nachteilig auf sie und andere aus, mit denen sie in Kontakt kommen.

In gewisser Weise ist die KI-Community auch einem ernsthaften Risiko ausgesetzt - möglicherweise einer permanenten Versuchung -, den gegenteiligen Fehler zu machen, indem sie ihren maschinellen Lernprodukten gemeinsame Qualifikationen, Bewusstsein und dergleichen ohne ausreichende Beweise zuschreibt. Ich habe kürzlich einen Fall gehört, der von angesehenen Wissenschaftlern aus schockierend schlechten logischen Gründen dahingehend angeführt wurde, dass Pflanzen eine "Intelligenz" besitzen, die auf wirklich schwachen Definitionen und einer klaren Verwechslung mit der Selbstorganisation beruht. Wir können keinen absoluten Beweis dafür liefern, dass ein Stein keine Intelligenz hat, was dem alten Problem entspricht, ein Negativ zu widerlegen. Zum Glück handeln derzeit nur wenige Männer nach solchen Überzeugungen, denn wenn sie dies tun, verlieren sie letztendlich den Verstand. Wenn wir solche Argumente ernst nehmen, könnten Gesetze verabschiedet werden, um die Art von Pet Rocks zu schützen, die in den USA populär waren. 70er Jahre (ich bin immer noch verärgert, dass mir LOL gestohlen wurde). Es wäre jedoch viel einfacher, den gleichen Fehler zu machen, wenn man Bewusstsein, Intelligenz und andere solche Eigenschaften einer modernen Maschine zuschreibt, und zwar aufgrund von Wunschdenken, Hybris, den hohen Referenzen der Erfinder und dem Einfluss der Science-Fiction und der modernen Liebe zur Technologie. In Zukunft habe ich kaum Zweifel, dass es einen Frachtkult der KI geben wird - vielleicht gesetzlich geschützt wie eine Art gefährdeter Arten, mit Bürgerrechten, aber mit nicht mehr Bewusstsein, Seele oder tatsächlicher Intelligenz als einem Felsen. Zitiere mich nicht dazu, aber ich glaube, Rod Serling hat einmal eine Geschichte in diesem Sinne geschrieben. Intelligenz und andere solche Eigenschaften zu einer hochmodernen Maschine, aufgrund von Wunschdenken, Hybris, den hohen Referenzen der Erfinder, dem Einfluss der Science-Fiction und der modernen Liebe zur Technologie. In Zukunft habe ich kaum Zweifel, dass es einen Frachtkult der KI geben wird - vielleicht gesetzlich geschützt wie eine Art gefährdeter Arten, mit Bürgerrechten, aber mit nicht mehr Bewusstsein, Seele oder tatsächlicher Intelligenz als einem Felsen. Zitiere mich nicht dazu, aber ich glaube, Rod Serling hat einmal eine Geschichte in diesem Sinne geschrieben. Intelligenz und andere solche Eigenschaften zu einer hochmodernen Maschine, aufgrund von Wunschdenken, Hybris, den hohen Referenzen der Erfinder, dem Einfluss der Science-Fiction und der modernen Liebe zur Technologie. In Zukunft habe ich kaum Zweifel, dass es einen Frachtkult der KI geben wird - vielleicht gesetzlich geschützt wie eine Art gefährdeter Arten, mit Bürgerrechten, aber mit nicht mehr Bewusstsein, Seele oder tatsächlicher Intelligenz als einem Felsen. Zitiere mich nicht dazu, aber ich glaube, Rod Serling hat einmal eine Geschichte in diesem Sinne geschrieben. - Vielleicht gesetzlich geschützt wie eine Art gefährdeter Spezies, mit Bürgerrechten, aber mit nicht mehr Bewusstsein, Seele oder tatsächlicher Intelligenz als einem Felsen. Zitiere mich nicht dazu, aber ich glaube, Rod Serling hat einmal eine Geschichte in diesem Sinne geschrieben. - Vielleicht gesetzlich geschützt wie eine Art gefährdeter Spezies, mit Bürgerrechten, aber mit nicht mehr Bewusstsein, Seele oder tatsächlicher Intelligenz als einem Felsen. Zitiere mich nicht dazu, aber ich glaube, Rod Serling hat einmal eine Geschichte in diesem Sinne geschrieben.

Der beste Weg, um dieses Schicksal zu vermeiden, besteht darin, sich an die Interpretationen und Definitionen des gesunden Menschenverstands zu halten, von denen wir größtenteils Abstand nehmen, weil sie der KI eine sehr hohe Messlatte setzen, die wir in unserem Leben möglicherweise nie übertreffen werden , wenn jemals. Vielleicht ist KI auf jeder technologischen Ebene nicht einmal logisch möglich. Ich erinnere mich an einige Beweise, die in diesem Sinne interpretiert werden können. Diese hohen, aber vernünftigen Standards werden möglicherweise immer schwieriger einzuhalten sein, wenn Chesterton und Kollegen wie Hilaire Belloc und Arnold Lunn richtig einschätzten, dass der Gebrauch der Vernunft in der westlichen Zivilisation tatsächlich zusammengebrochen ist, zumindest schon in der Zeit der Aufklärung. Lunns Buch The Flight from Reason von 1931 ist in dieser Hinsicht ein Klassiker und muss noch widerlegt werden. Dieser historische Trend ist an und für sich ein weites Thema - aber es genügt zu sagen, dass die Vernunftverweigerung und die Besessenheit von Technologie auf offensichtliche Weise für das Gebiet der KI relevant sind. Wenn die Flucht vor der Vernunft noch im Gange ist, dann sind wir wird zunehmend versucht sein, auf unbedachte, einfache Einwände zurückzugreifen, um die Verwendung von Vernunft und unverzichtbaren Eigenschaften wie Bewusstsein in unseren Definitionen von KI herabzusetzen, aber immer schwächere Kriterien zu finden, um dies zu beweisen; Gleichzeitig wird sich unsere Technologie weiter verbessern und damit die "künstliche" Seite der künstlichen Intelligenz stärken. dann werden wir immer mehr versucht sein, auf unbedachte, einfache Einwände zurückzugreifen, um die Verwendung von Vernunft und unverzichtbaren Eigenschaften wie Bewusstsein in unseren Definitionen von KI herabzusetzen, aber immer schwächere Kriterien zu finden, um dies zu beweisen; Gleichzeitig wird sich unsere Technologie weiter verbessern und damit die "künstliche" Seite der künstlichen Intelligenz stärken. dann werden wir immer mehr versucht sein, auf unbedachte, einfache Einwände zurückzugreifen, um die Verwendung von Vernunft und unverzichtbaren Eigenschaften wie Bewusstsein in unseren Definitionen von KI herabzusetzen, aber immer schwächere Kriterien zu finden, um dies zu beweisen; Gleichzeitig wird sich unsere Technologie weiter verbessern und damit die "künstliche" Seite der künstlichen Intelligenz stärken.

Versteht mich nicht falsch: Wenn ich nicht gedacht hätte, dass wir mit AI einige wirklich aufregende Dinge machen können, wäre ich nicht hier. Die meisten von ihnen können jedoch erreicht werden, ohne jemals die tatsächliche menschliche Intelligenz zu replizieren, indem ganze Klassen von tangentialen Problemen gelöst werden, über die der Mensch nur schwer nachdenken kann, die jedoch kein Bewusstsein oder die Verwendung von Vernunft erfordern, die die menschliche Intelligenz kennzeichnet. Die Bilderkennungsfähigkeiten von Faltungs-Neuronalen Netzen sind beispielsweise ein Beispiel; Wenn wir menschliche Intelligenz wollen, können wir sie immer auf einfachste, wirtschaftlichste und bewährte Weise herstellen, indem wir Babys bekommen. Vielleicht sollten uns diese tangentialen Formen der KI vorerst ausreichen. Wir können den Gebrauch der Vernunft nicht in unsere Maschinen einfließen lassen, wenn wir nicht genug davon besitzen, um selbst zu entscheiden, ob die Vernunft für die KI notwendig ist. oder sogar zu erkennen, woraus es besteht. Wir können das Bewusstsein für KI nicht entwickeln oder ablehnen, bis wir uns seiner Bedeutung bewusst sind. Ich wette jedoch, dass jeder, der diesen Thread liest und intelligente Antworten abwägt, dies in einem bewussten Zustand tut. Das allein sollte unsere Frage vorerst zufriedenstellend beantworten.


2

So weit die Definition, die Sie angegeben haben:

Erleben Sie tatsächlich sensorische Eingaben, anstatt nur ein paar Daten durch eine leblose Maschine zu schicken.

Sowohl Computer als auch Menschen erfahren sensorische Eingaben. Sie können einen Computer an einen menschlichen Augapfel anschließen und dieselben Filterroutinen ausführen lassen wie das menschliche Gehirn (Entfernen von Unschärfe, während Sie Ihr Auge bewegen, und von Objekten, die nicht scharfgestellt sind usw.).

Ich möchte darauf hinweisen, dass eine genauere Definition des Bewusstseins die Fähigkeit und die Neigung zur Selbstreflexion ist. Sowohl Computer als auch menschliche Gehirne haben autonome Aktivitäten. Nicht nur mechanisch, sondern auch in unseren Reaktionen. Der Unterschied zwischen dem unbewussten Computer und dem selbstbewussten menschlichen Verstand besteht darin, dass wir auch die Möglichkeit haben, diese Muster in uns selbst zu betrachten und zu betrachten.

Und so, nein, Bewusstsein ist für keine KI-Aufgabe notwendig. Die Bilderkennung ist eine KI-Aufgabe, die weder beim Menschen noch auf andere Weise ein Bewusstsein erfordert. Ihr Gehirn sortiert die von Ihren Augen übertragenen Farben weitgehend autonom in einzelne Objekte.

Das Bewusstsein ist Selbstreferenz.


-1

Zwei Arten von Aufgaben erfordern Bewusstsein:

  1. Bewusstsein

  2. Jede Aufgabe, die extreme Dynamik erfordert und bei der das Lösen von Problemen eine Analogisierung zwischen verschiedenen 3D-Zuständen und Vorkenntnissen zur Lösung des Problems erfordert, ist minimal

Sobald Sie jedoch wissen, wie Sie ein bestimmtes Problem lösen können, können Sie dieses Bewusstsein durch weitere Optimierung aufheben.

Wenn Sie einem Problem genügend Spezifität verleihen, ist kein allgemeiner Löser erforderlich. Und dann ist das einzige verbleibende Bedürfnis nach einem Bewusstsein für sich.


-1

In einem sehr nischenhaften Sinne würde ich ja sagen.

Die einzigen Aufgaben, die das Empfinden ermöglichen würde, waren das tatsächliche Fühlen und Denken an und für sich. An diesem Punkt spielt das Gefühl bei keiner der Aufgaben, die wir von KI verlangen, eine Rolle. Wir nähern uns schnell dem Punkt, dass wir einer "toten" Maschine beibringen können, praktisch fast alles zu tun, was eine empfindungsfähige KI kann.

Sentience bedeutet umgangssprachlich oft "die Fähigkeit zu argumentieren, während man versteht, dass man selbst und jedes andere Wesen ein eigenständiger handelnder Agent ist" oder etwas in dieser Richtung. Es bedeutet wörtlich etwas mehr im Sinne der Selbsterkenntnis und der Definition des Bewusstseins, die Sie oben haben. Der Punkt, den ich anspreche, ist, dass wir uns dem Punkt nähern, an dem "tote" KIs die erste Denkweise sehr gut imitieren können, indem wir Daten wirklich gut lernen und interpretieren.

Bildbeschreibung hier eingeben

                              Sieht der Roboter eine Verschmelzung von Knochen oder ein Wesen, das es früher war?

Somit wäre eine wahrhaft empfindungsfähige Maschine in ihrer Fähigkeit überlegen (im Vergleich zu einer wahrhaft fortgeschrittenen „toten“ KI), nur um die Informationen „wahrhaft“ erfahren zu können.

Dies läuft sehr gut parallel zum sogenannten "Wissensargument" das im Wesentlichen genau dieses Thema debattiert. Die Version davon, die ich gehört habe, die bei mir bleibt, ist, dass sich ein sehr kluges Mädchen in einem Raum befindet, das Zugang zu allen möglichen Informationen hat. Sie mag die Farbe blau. Zumindest denkt sie; Sie hat es noch nie gesehen. Sie hat alle Informationen der Welt über Farben und wie sie funktionieren usw., aber weiß sie wirklich, was Blau ist, bis sie es sieht?

Ein weiteres großes historisches Unternehmen auf diesem Gebiet ist das berühmte Gemälde:

                                        Ceci n'est pas une pipe

Die Überschrift übersetzt: "Dies ist keine Pipe". Und die Idee ist, dass dies ehrlich gesagt keine Pfeife ist. Momentan ist es eine Menge Pixel auf Ihrem Bildschirm in einer bestimmten Konfiguration - wir können alle eine Pipe "sehen", aber was bedeutet das wirklich?

Letztendlich denke ich, dass superintelligente "tote" KI praktisch alles kann, was man "leben" kann, wobei letztere in und von der "Lebendigkeit" selbst überlegen ist.


Die umgangssprachliche Definition von Empfindung, die Sie geben, ist nicht das, was das OP benutzte - ihre Definition war tatsächliche Erfahrung , dh Qualia. Im Gegensatz dazu geht es bei dem von Ihnen zitierten Gedankenexperiment „Schwarz-Weiß-Raum“ speziell um Qualia.
NietzscheanAI

Richtig. Der Rest des Absatzes befasst sich damit.
Avik Mohan

-2

Ein Wesen ohne Empfindung kann nicht leiden. Wenn wir zum Beispiel Freude am Leiden eines anderen haben wollen, würde nur eine KI, die empfindungsfähig ist, ausreichen.

Angenommen, wir hatten einige Sadisten, die nicht zufrieden oder produktiv sein konnten, wenn sie nicht viel Leid verursachten. Und sagen wir, wir haben uns nur darum gekümmert, das Leiden von Mensch und Tier zu minimieren. Was wir für diesen Job brauchen würden, ist etwas, das nicht menschlich und nicht tierisch ist und leiden könnte. Eine bewusste KI würde das tun, eine unbewusste nicht.

Die Behauptung wurde in den Kommentaren aufgestellt, dass das Bewusstsein nicht anders als vielleicht durch Selbstbeobachtung bewiesen werden kann. Dies ist jedoch offensichtlich kein Problem, da Sadisten Freude daran haben, andere zu foltern, und diese anderen können auch nicht beweisen, dass sie bei Bewusstsein sind.


3
Ein Sadist ist genauso unfähig wie jeder andere, das Gefühl von einem beobachtbar äquivalenten Nicht-Gefühl zu unterscheiden, weshalb das Gefühl auch hier eigentlich nicht notwendig ist.
NietzscheanAI

A being with sentience cannot suffer- meinst du mit raus ?
Mithical

Die Geschichte 'Die Seele des Mark III-Biests' von Stanislaw Lem bietet eine schöne Perspektive auf den E-Sadismus.
NietzscheanAI

@ NietzscheanAI Angenommen, wir hatten zwei AIs. Man konnte beweisen, dass es empfindungsfähig war, und der andere konnte es nicht. Ersteres würde diese Aufgabe erfüllen können, Letzteres nicht. Ihre Behauptung, ein Sadist sei genauso unfähig wie alle anderen, bedeutet auch, dass ein Sadist genauso fähig ist wie alle anderen.
David Schwartz

Es gibt kein bekanntes Mittel, um das Empfinden zu beweisen. Siehe das Flanaghan-Papier zu 'Zombie Earth', auf das ich in meiner Antwort verweise.
NietzscheanAI
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.