Da die Modelle jedoch immer komplexer werden, kann es schwierig sein, herauszufinden, was sie dazu veranlasst, bestimmte Vorhersagen zu treffen. Deshalb beobachten wir eine rasche Zunahme von Interpretationswerkzeugen wie SHAP oder DALEX.
In diesem Artikel werde ich einige Gründe erörtern, warum Interpretierbarkeit so wichtig ist. Es gibt mehr Gründe, als man erwarten könnte, und einige von ihnen sind nicht so offensichtlich.
1. Mehr Vertrauen, dass das Modell gut funktioniert
Einer der wichtigsten Aspekte der Interpretierbarkeit ist, dass Sie dadurch Vertrauen in Ihr Modell gewinnen und sicher sein können, dass es das tut, was es tun soll.
Der erste Schritt bei der Bewertung der Modellqualität ist die Festlegung einer geeigneten Metrik, die je nach Anwendung z. B. Genauigkeit, f1‑Score oder MAPE sein kann. Doch selbst wenn Sie die richtige Metrik gewählt haben, kann sie falsch berechnet werden oder nicht aussagekräftig sein. Daher können wir in der Regel das höchste Vertrauen in die Qualität des Modells nur erreichen, wenn wir verstehen, was es tut und warum es solche Vorhersagen macht.
2. Vertrauen aufbauen
Bei Projekten zum maschinellen Lernen ist Vertrauen die Grundlage. Ohne Vertrauen kann man keine Beziehungen oder Kooperationen aufbauen. Vertrauen ermöglicht es Ihnen, zusammenzuarbeiten und Daten, Wissen und Erfahrung auszutauschen. Außerdem ermöglicht es Ihnen, auch in Zukunft miteinander zu arbeiten.
Damit Ihr Modell interpretierbar und vertrauenswürdig ist, muss es klare Erklärungen enthalten, was es tut und warum es es tut. Je transparenter Sie die Ergebnisse Ihres Modells machen können, desto wahrscheinlicher ist es, dass andere Ihren Ergebnissen vertrauen - und wieder mit Ihnen zusammenarbeiten wollen!
3. Fehlersuche
Das Verständnis des Modells und seiner Funktionsweise ist äußerst wichtig, wenn die Ergebnisse des Modells hinter Ihren Erwartungen zurückbleiben und Sie herausfinden wollen, was los ist. Wenn Sie das Modell nicht verstehen, ist es sehr schwierig, Fehler zu beheben, wenn etwas mit Ihren Vorhersageergebnissen schief läuft.
Wenn ein Algorithmus beispielsweise für einige Datenpunkte in einem Testsatz keine genauen Vorhersagen macht, aber bei anderen Datenpunkten gut abschneidet, stammen die guten Datenpunkte vielleicht aus der gleichen Verteilung wie im Trainingssatz. Wenn Sie verstehen, auf welche Merkmale Ihr Modell am meisten achtet, können Sie feststellen, dass falsche Datenpunkte vielleicht Ausreißer aus der Perspektive dieser Merkmale sind. Oder vielleicht fehlen in diesen Punkten einige Merkmale.
4. Einfachere Alternative
Dank der Interpretierbarkeit können Sie wissen, welche Merkmale für Ihr Modell wichtig sind, und einfachere Alternativmodelle vorschlagen, die eine ähnliche Vorhersagekraft haben.
Angenommen, Sie haben ein Klassifizierungsproblem mit Tausenden von Merkmalen und stellen fest, dass nur 10% von ihnen für die Vorhersage der Kundenabwanderung von Bedeutung sind. Da Sie nun wissen, welche Merkmale wichtig sind und welche nicht, können Sie möglicherweise unwichtige Merkmale entfernen und Ihr Modell erneut trainieren. Das wird schneller gehen, weil es weniger Parameter hat. Aber auch der Prozess der Datenerfassung und -vorverarbeitung wird einfacher sein.
5. Erweiterung des Domänenwissens
Die Werkzeuge zur Erklärung von Modellen zeigen uns die Merkmale, die die Ergebnisse des Modells am meisten beeinflussen. Einige Beziehungen zwischen Merkmalen und Korrelationen mit dem Ergebnis können sehr intuitiv und Experten bekannt sein, z. B. wenn man versucht vorherzusagen, ob ein Kunde einen Kredit nicht zurückzahlen wird oder nicht, kann die Geschichte seiner Rückzahlung ein wichtiger Faktor sein. Modelle entdecken jedoch sehr oft Zusammenhänge, die der Mensch bisher nicht kannte. Dadurch können menschliche Entscheidungen in Zukunft besser ausfallen, auch wenn Sie sich nicht dafür entscheiden, sie durch das Modell zu ersetzen.
6. Einhaltung der Vorschriften
Wenn ein Modell verwendet wird, um festzustellen, ob man für etwas zugelassen wird oder nicht (ein Darlehen, eine Krankenversicherung usw.), dann muss man sicher sein, dass das Modell sinnvoll ist und eine genaue Antwort liefert. Wenn die Entscheidung auf einer undurchsichtigen Blackbox beruht, wissen Sie möglicherweise nicht, warum einer Person eine Genehmigung erteilt wurde und einer anderen nicht. Dieser Mangel an Transparenz bedeutet auch, dass es schwierig sein wird, vor Gericht zu beweisen, dass das Modell richtig funktioniert, wenn es in Zukunft Probleme mit seinen Vorhersagen gibt.
Diese sechs Gründe erklären, warum die Interpretierbarkeit eines Modells wichtig ist.
Ein interpretierbares Modell ist wichtig, um sicher zu sein, dass das Modell gut funktioniert und um Vertrauen zwischen Ihnen und Ihren Endnutzern aufzubauen. Es ist auch wichtig für das Debugging des Modells, das Ihnen helfen kann, Probleme schnell zu isolieren und zu beheben, bevor das Modell in der Produktion eingesetzt wird.
Eine Erklärung des Modells ist auch dann nützlich, wenn Sie die aktuelle Version Ihres Modells nicht verwenden wollen - indem Sie die Erstellung einfacherer Alternativen ermöglichen oder das Wissen der menschlichen Experten erweitern und ihre Entscheidungen verbessern.
Wenn Sie schließlich die Einhaltung von Vorschriften überprüfen müssen, wird eine interpretierbare Version Ihres Modells diese Verfahren erheblich erleichtern.
Ich hoffe, Sie haben diesen Artikel auf Ihrem Weg zur Datenwissenschaft als nützlich empfunden. Bitte besuchen Sie unseren Blog für weitere Artikel!
