Welche mathematischen Probleme gibt es in der KI, an denen Menschen arbeiten?


11

Ich habe vor kurzem eine 18-monatige Postdoc-Stelle in einer Mathematikabteilung bekommen. Es ist eine Position mit relativ geringer Lehrpflicht und viel Freiheit darüber, welche Art von Forschung ich machen möchte.

Zuvor habe ich mich hauptsächlich mit Wahrscheinlichkeits- und Kombinatorik befasst. Aber ich denke darüber nach, etwas anwendungsorientierter zu arbeiten, z. B. KI. (Es gibt auch die Überlegung, dass es eine gute Chance gibt, dass ich am Ende meiner aktuellen Position keine Tenure-Track-Position bekomme. Ein bisschen KI zu lernen könnte für andere Karrieremöglichkeiten hilfreich sein.)

Welche mathematischen Probleme gibt es in der KI, an denen Menschen arbeiten? Nach allem, was ich gehört habe, studieren Leute

Irgendwelche anderen Beispiele?


3
Optimierung. Wahrscheinlich ist AI ML das wirkungsvollste Feld. Es fehlt ein Konvergenznachweis wie beim verstärkten Lernen.
drerD

Antworten:


10

In der künstlichen Intelligenz (manchmal auch als Maschinenintelligenz oder Computerintelligenz bezeichnet ) gibt es verschiedene Probleme, die auf mathematischen Themen beruhen, insbesondere Optimierung, Statistik, Wahrscheinlichkeitstheorie, Kalkül und lineare Algebra.

Marcus Hutter hat an einer mathematischen Theorie für künstliche allgemeine Intelligenz namens AIXI gearbeitet , die auf mehreren mathematischen und rechnerwissenschaftlichen Konzepten basiert, wie z. B. Verstärkungslernen, Wahrscheinlichkeitstheorie (z. B. Bayes-Theorem und verwandte Themen) , Maßtheorie , algorithmische Informationstheorie (z Kolmogorov-Komplexität), Optimierung, Solomonoff-Induktion , universelle Levin-Suche und Berechnungstheorie (z. B. universelle Turing-Maschinen). Sein Buch Universal Artificial Intelligence: Sequentielle Entscheidungen basierend auf algorithmischer Wahrscheinlichkeit, ein hochtechnisches und mathematisches Buch, beschreibt seine Theorie der optimalen Bayes'schen Nicht-Markov-Verstärkungslernmittel.

Es gibt auch das Forschungsfeld der rechnergestützten Lerntheorie , das sich mit dem Entwurf und der Analyse von Algorithmen für maschinelles Lernen befasst. Genauer gesagt konzentriert sich das Gebiet auf die gründliche Untersuchung und mathematische Analyse von Algorithmen für maschinelles Lernen unter Verwendung von Techniken aus Bereichen wie Wahrscheinlichkeitstheorie, Statistik, Optimierung, Informationstheorie und Geometrie. Mehrere Personen haben an der Theorie des rechnergestützten Lernens gearbeitet, darunter Michael Kearns und Vladimir Vapnik . Es gibt auch ein verwandtes Gebiet, das als statistische Lerntheorie bezeichnet wird .

Es gibt auch viele Forschungsanstrengungen, die sich mit Approximationen (Heuristiken) der kombinatorischen Optimierung und NP-vollständigen Problemen wie der Optimierung von Ameisenkolonien befassen .

Es gibt auch einige Arbeiten zur AI-Vollständigkeit , die jedoch nicht viel Beachtung gefunden haben (im Vergleich zu den anderen oben genannten Forschungsbereichen).


4

Der größte Teil der mathematischen Arbeit in der KI, mit der ich vertraut bin, ist bereits in der Antwort von nbro enthalten. Eine Sache, von der ich glaube, dass sie in dieser Antwort noch nicht behandelt wird, ist der Nachweis der algorithmischen Äquivalenz und / oder das Ableiten äquivalenter Algorithmen . Eine meiner Lieblingsarbeiten dazu ist das Lernen, unabhängig von der Spanne vorherzusagen, von Hado van Hasselt und Richard Sutton.

Die Grundidee ist, dass wir zuerst einen Algorithmus (in mathematischer Form, zum Beispiel einige Aktualisierungsregeln / -gleichungen für Parameter, die wir trainieren) auf eine Weise formulieren und dann verschiedene Aktualisierungsregeln / -gleichungen (dh einen anderen Algorithmus) für finden können was wir beweisen können, dass es dem ersten äquivalent ist (dh immer die gleiche Ausgabe ergibt).

Ein typischer Fall, in dem dies nützlich ist, ist, wenn der erste Algorithmus leicht zu verstehen ist / unsere Intuition anspricht / für Konvergenzbeweise oder andere theoretische Analysen bequemer ist und der zweite Algorithmus effizienter ist (in Bezug auf Berechnung, Speicherbedarf usw.) .).


3

Speziell für mathematische Geräte neuronaler Netze - Zufallsmatrixtheorie . Die nicht-asymptotische Zufallsmatrixtheorie wurde in einigen Beweisen für die Konvergenz des Gradientenabfalls für neuronale Netze verwendet . Hochdimensionale zufällige Landschaften in Verbindung mit dem hessischen Spektrum stehen in Beziehung zu Verlustflächen neuronaler Netze .

Die topologische Datenanalyse ist ein weiterer Bereich intensiver Forschung in Bezug auf ML, AI und Anwendung auf neuronale Netze .

Es gab einige Arbeiten zur tropischen Geometrie neuronaler Netze

Die Homotopietypentheorie hat auch eine Verbindung zur KI

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.