Hat Nassim Taleb Recht damit, dass KI bestimmte Arten von Verteilungen nicht genau vorhersagen kann?


8

Taleb verfügt also über zwei Heuristiken, um Datenverteilungen allgemein zu beschreiben. Eines ist Mediocristan, was im Grunde Dinge bedeutet, die sich auf einer Gaußschen Verteilung befinden, wie Größe und / oder Gewicht von Menschen.

Der andere heißt Extremistan und beschreibt eine eher paretoartige oder fettschwanzige Verteilung. Ein Beispiel ist die Vermögensverteilung, 1% der Menschen besitzen 50% des Vermögens oder etwas in der Nähe davon, und daher ist die Vorhersagbarkeit aus begrenzten Datensätzen viel schwieriger oder sogar unmöglich. Dies liegt daran, dass Sie Ihrem Datensatz eine einzelne Stichprobe hinzufügen können und die Konsequenzen so groß sind, dass das Modell beschädigt wird oder die Auswirkungen so groß sind, dass die Vorteile vorheriger genauer Vorhersagen zunichte gemacht werden. Tatsächlich behauptet er, auf diese Weise Geld an der Börse verdient zu haben, weil alle anderen schlechte Gaußsche Verteilungsmodelle verwendeten, um den Markt vorherzusagen, der tatsächlich für einen kurzen Zeitraum funktionieren würde, aber wenn etwas schief ging, gingen sie wirklich falsch, was dazu führen würde, dass Sie Nettoverluste auf dem Markt haben.

Ich fand dieses Video von Taleb, der nach KI gefragt wurde. Seine Behauptung ist, dass KI (auch) nicht für Dinge funktioniert, die in Extremistan fallen.

Hat er recht Werden einige Dinge selbst mit KI von Natur aus unvorhersehbar sein?

Hier ist das Video, auf das ich mich beziehe: https://youtu.be/B2-QCv-hChY?t=43m08s

Antworten:


6

Ja und nein!

Es gibt keinen inhärenten Grund, warum maschinelle Lernsysteme nicht mit extremen Ereignissen umgehen können. Als einfache Version können Sie die Parameter einer Weibull-Verteilung oder eines anderen Extremwertmodells aus Daten lernen .

Das größere Problem betrifft bekannte Unbekannte im Vergleich zu unbekannten Unbekannten. Wenn Sie wissen, dass seltene Ereignisse möglich sind (wie beispielsweise bei der Erdbebenvorhersage), können Sie dieses Wissen in die von Ihnen entwickelten Modelle integrieren und erhalten etwas, das genauso gut oder besser funktioniert als Menschen in diesem Bereich. Wenn Sie nicht wissen, dass seltene Ereignisse möglich sind (wie beispielsweise ein Börsencrash, der durch korrelierte Immobilienausfälle verursacht wird), wird Ihr Modell dies ebenfalls widerspiegeln.

Ich neige dazu zu denken, dass Taleb hier etwas unfair ist: KI kann mit solchen Ereignissen nicht umgehen, gerade weil ihre Schöpfer (wir) nicht damit umgehen können! Wenn wir wüssten, dass sie möglich sind, könnten wir ziemlich gut damit umgehen, und KI auch.


1
Ist die Unfähigkeit dieser Modelle (einschließlich der menschlichen im Gehirn) nicht in der Lage, mit Unbekannten umzugehen? Da die Menge an genauen Daten, die wir in unseren Proben sammeln können, immer begrenzt ist und bei Fettschwanzverteilungen die Wirkung eines Ausreißers enorm sein kann, während bei einer Normalverteilung die Wirkung oder der Schaden eines extremen Ausreißers normalerweise der Fall ist sei ziemlich klein. Es ist also so, als ob er sagt, dass dies ein grundlegendes Merkmal für biologisches oder maschinenbasiertes Wissen und Vorhersagesysteme ist, weshalb die KI in bestimmten Bereichen begrenzt sein wird.
Josiah Swaim

2
Hmm. Ich denke, es gibt zwei Probleme. Eine davon ist die Behauptung, dass wir mit KI keine Fettschwanzverteilungen bewältigen können. Das ist falsch. Das andere ist, dass Sie von unerwarteten Ereignissen überrascht werden, wenn Sie nicht wissen, welche Verteilungen für das zu untersuchende Problem geeignet sind (dh wenn Sie Ihr Problem nicht wirklich verstehen). Das ist wahr. Ich denke, Taleb bringt die beiden Themen zusammen, wenn sie wirklich getrennt sind.
John Doucette
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.