Aus künstlicher Intelligenz: Ein moderner Ansatz , dritte Ausgabe, Kapitel 26:
Beachten Sie, dass das Konzept ultraintelligenter Maschinen davon ausgeht, dass Intelligenz ein besonders wichtiges Attribut ist. Wenn Sie genug davon haben, können alle Probleme gelöst werden. Wir wissen jedoch, dass die Berechenbarkeit und die Komplexität der Berechnungen Grenzen haben. Wenn das Problem der Definition ultraintelligenter Maschinen (oder sogar Annäherungen an diese) in die Klasse der beispielsweise NEXPTIME-vollständigen Probleme fällt und wenn es keine heuristischen Verknüpfungen gibt, hilft selbst ein exponentieller Fortschritt in der Technologie nicht - die Geschwindigkeit of light legt eine strenge Obergrenze dafür fest, wie viel Computing durchgeführt werden kann; Probleme jenseits dieser Grenze werden nicht gelöst. Wir wissen immer noch nicht, wo diese Obergrenzen liegen.
Wenn das Argument des Lehrbuchs richtig ist, kann es eine strikte Obergrenze für Intelligenz geben, was bedeutet, dass das Potenzial (oder der Schaden) von Superintelligenz begrenzt ist. Es hängt jedoch davon ab, dass es tatsächlich ein theoretisches Maximum für die Intelligenz gibt.
Gibt es Literatur, die darauf hindeutet, dass wir sicher wissen, ob es ein solches Maximum gibt? Ist die Existenz dieses Maximums von unserer Definition von Intelligenz abhängig (eine vage und handwellige Definition würde also kein theoretisches Maximum implizieren, während eine strikte und formalisierte Definition ein theoretisches Maximum implizieren würde)?