Gibt es Literatur, in der die Eigenschaften von Algorithmen aufgelistet sind, die eine Erklärung ermöglichen?
Die einzige mir bekannte Literatur ist die jüngste Veröffentlichung von Ribero, Singh und Guestrin. Sie definieren zunächst die Erklärbarkeit einer einzelnen Vorhersage:
Mit „Erklären einer Vorhersage“ meinen wir die Darstellung von Text- oder visuellen Artefakten, die ein qualitatives Verständnis der Beziehung zwischen den Komponenten der Instanz (z. B. Wörter im Text, Patches in einem Bild) und der Vorhersage des Modells liefern.
Die Autoren erläutern weiter, was dies für konkretere Beispiele bedeutet, und verwenden diesen Begriff dann, um die Erklärbarkeit eines Modells zu definieren. Ihr Ziel ist es, zu versuchen, sozusagen künstliche Erklärbarkeit zu ansonsten intransparenten Modellen hinzuzufügen, anstatt die Erklärbarkeit bestehender Methoden zu vergleichen. Das Papier kann ohnehin hilfreich sein, da versucht wird, eine genauere Terminologie um den Begriff "Erklärbarkeit" einzuführen.
Gibt es Modelle für maschinelles Lernen, die allgemein als ein guter Kompromiss zwischen beiden angesehen werden?
Ich stimme @Winter zu, dass das elastische Netz für (nicht nur logistische) Regression als Beispiel für einen guten Kompromiss zwischen Vorhersagegenauigkeit und Erklärbarkeit angesehen werden kann.
Für eine andere Art von Anwendungsdomäne (Zeitreihen) bietet eine andere Klasse von Methoden ebenfalls einen guten Kompromiss: die Bayes'sche strukturelle Zeitreihenmodellierung. Es erbt die Erklärbarkeit der klassischen strukturellen Zeitreihenmodellierung und eine gewisse Flexibilität des Bayes'schen Ansatzes. Ähnlich wie bei der logistischen Regression wird die Erklärbarkeit durch Regressionsgleichungen unterstützt, die für die Modellierung verwendet werden. In diesem Dokument finden Sie eine schöne Anwendung im Marketing und weitere Referenzen.
In Bezug auf den gerade erwähnten Bayes'schen Kontext möchten Sie möglicherweise auch probabilistische grafische Modelle betrachten. Ihre Erklärbarkeit beruht nicht auf Regressionsgleichungen, sondern auf grafischen Modellierungsmethoden. Einen großartigen Überblick finden Sie unter "Probabilistische grafische Modelle: Prinzipien und Techniken" von Koller und Friedman.
Ich bin mir nicht sicher, ob wir die oben genannten Bayes'schen Methoden als "allgemein akzeptierten guten Kompromiss" bezeichnen können. Sie sind dafür möglicherweise nicht hinreichend bekannt, insbesondere im Vergleich zum Beispiel des elastischen Netzes.