In Decision Trees können wir die Ausgabe der Baumstruktur verstehen und visualisieren, wie der Decision Tree Entscheidungen trifft. Entscheidungsbäume sind also erklärbar (ihre Ausgabe kann leicht erklärt werden.)
Haben wir Erklärbarkeit in neuronalen Netzen wie bei Entscheidungsbäumen?