Ich habe mich gefragt, warum es so wichtig ist, prinzipielles / theoretisches maschinelles Lernen zu haben. Aus einer persönlichen Perspektive als Mensch kann ich verstehen, warum prinzipielles maschinelles Lernen wichtig wäre:
- Menschen mögen es zu verstehen, was sie tun, wir finden Schönheit und Befriedigung zu verstehen.
- Aus theoretischer Sicht macht Mathematik Spaß
- Wenn es Prinzipien gibt, die das Design von Dingen leiten, wird weniger Zeit für zufälliges Raten, seltsames Ausprobieren aufgewendet. Wenn wir beispielsweise verstehen würden, wie neuronale Netze wirklich funktionieren, könnten wir vielleicht viel mehr Zeit damit verbringen, sie zu entwerfen, als mit dem gewaltigen Aufwand an Versuchen und Irrtümern, der derzeit anfällt.
- In jüngerer Zeit sollte das System (hoffentlich) transparenter sein, wenn die Prinzipien klar sind und die Theorie ebenfalls klar ist. Das ist gut so, denn wenn wir verstehen, wie das System funktioniert, riskiert die KI, dass viele Leute, die über so ziemlich alles nachdenken, sofort verschwinden.
- Prinzipien scheinen eine prägnante Methode zu sein, um die wichtigen Strukturen der Welt zusammenzufassen und zu beschreiben, wann ein Werkzeug anstelle eines anderen eingesetzt werden sollte.
Sind diese Gründe jedoch stark genug, um ein intensives theoretisches Studium des maschinellen Lernens zu rechtfertigen? Eine der größten Kritikpunkte an der Theorie ist, dass sie, weil sie so schwer zu machen ist, normalerweise einen sehr eingeschränkten Fall studiert oder die Annahmen, die gebracht werden müssen, die Ergebnisse im Wesentlichen unbrauchbar machen. Ich glaube, ich habe das einmal bei einem Vortrag des Schöpfers von Tor am MIT gehört. Dass ein Teil der Kritik an Tor, die er gehört hat, das theoretische Argument ist, aber im Grunde genommen sind die Menschen nie in der Lage, Dinge über die realen Szenarien des realen Lebens zu beweisen, weil sie so kompliziert sind.
In dieser neuen Ära mit so viel Rechenleistung und Daten können wir unsere Modelle mit realen Datensätzen und Testsätzen testen. Wir können anhand des Empirismus sehen, ob die Dinge funktionieren. Wenn wir stattdessen AGI oder Systeme erreichen können, die mit Ingenieurwissenschaften und Empirismus arbeiten, lohnt es sich immer noch, eine prinzipielle und theoretische Rechtfertigung für maschinelles Lernen zu verfolgen, insbesondere wenn die quantitativen Grenzen so schwer zu erreichen sind, aber Intuitionen und qualitative Antworten so viel einfacher sind mit einem datengetriebenen Ansatz erreichen? Dieser Ansatz war in der klassischen Statistik nicht verfügbar, weshalb ich die Theorie zu dieser Zeit für so wichtig hielt, da wir nur mithilfe der Mathematik sicher sein konnten, dass die Dinge korrekt waren oder dass sie tatsächlich so funktionierten, wie wir es dachten.
Ich persönlich habe Theorie immer geliebt und gedacht, und ein prinzipieller Ansatz war wichtig. Aber mit der Kraft, Dinge nur mit echten Daten und Rechenleistung ausprobieren zu können, habe ich mich gefragt, ob sich der hohe Aufwand (und möglicherweise die geringe Belohnung) der theoretischen Verfolgung immer noch lohnt.
Ist das theoretische und prinzipielle Erlernen von Maschinen wirklich so wichtig?