Ich hörte einen Vortrag des Panels, der aus zwei einflussreichen chinesischen Wissenschaftlern bestand: Wang Gang und Yu Kai und anderen.
Auf die Frage nach dem größten Engpass bei der Entwicklung künstlicher Intelligenz in naher Zukunft (3 bis 5 Jahre) sagte Yu Kai, der einen Hintergrund in der Hardwareindustrie hat, dass Hardware das wesentliche Problem sei und wir den größten Teil davon bezahlen sollten unsere Aufmerksamkeit darauf. Er gab uns zwei Beispiele:
- In der frühen Entwicklung des Computers vergleichen wir unsere Maschinen anhand ihrer Chips.
- Künstliche Intelligenz, die in diesen Jahren sehr beliebt ist, wäre fast unmöglich, wenn sie nicht durch die GPU von Nvidia unterstützt würde.
Die grundlegenden Algorithmen existierten bereits in den 1980er und 1990er Jahren, aber künstliche Intelligenz durchlief drei KI-Winter und war nicht empirisch, bis wir Modelle mit GPU-gesteuerten Mega-Servern trainieren können.
Dann kommentierte Dr. Wang seine Meinung, dass wir auch Softwaresysteme entwickeln sollten, weil wir kein automatisches Auto bauen können, selbst wenn wir alle GPUs und Berechnungen der Welt miteinander kombiniert haben.
Dann wanderten meine Gedanken wie gewöhnlich ab und ich begann zu überlegen, was wäre, wenn diejenigen, die in den 1980er und 1990er Jahren Supercomputer betreiben können, die damals existierenden Algorithmen für neuronale Netze nutzen und sie mit Tonnen wissenschaftlicher Daten trainieren würden? Einige Leute zu dieser Zeit können offensichtlich versuchen, KI-Systeme zu bauen, die wir gerade bauen. Aber warum wurde KI ein heißes Thema und wurde erst Jahrzehnte später empirisch? Geht es nur um Hardware, Software und Daten?