6 powodów, dla których interpretowalność modelu jest ważna

13 maja 2024 r.
·
3 minuty czytania
Adam G. Dobrakowski
Obserwuj na Linkedin
Machine Learning has become a fundamental part of many companies’ data science efforts.

Jednak w miarę jak modele stają się coraz bardziej złożone, może być trudno dowiedzieć się, co powoduje, że tworzą one określone prognozy. Dlatego też obserwujemy szybki wzrost liczby narzędzi interpretacyjnych, takich jak SHAP lub DALEX

W tym artykule omówię kilka powodów, dla których interpretowalność jest tak ważna. Powodów jest więcej niż można by się spodziewać, a niektóre z nich są bardzo nieoczywiste.

1. Większa pewność, że model działa dobrze

Jednym z najważniejszych aspektów interpretowalności jest to, że pozwala ona zyskać zaufanie do modelu i mieć pewność, że robi on to, co powinien.

Pierwszym krokiem do oceny jakości modelu jest odpowiednio zdefiniowana metryka, w zależności od zastosowania - może to być np. dokładność, wynik f1 lub MAPE. Jednak nawet jeśli wybraliśmy odpowiednią metrykę, może ona zostać obliczona w niewłaściwy sposób lub może być nieinformatywna. Dlatego zazwyczaj możemy osiągnąć najwyższą pewność co do jakości modelu tylko poprzez zrozumienie, co robi i dlaczego daje takie prognozy.

2. Budowanie zaufania

W projektach Machine Learning zaufanie jest podstawą. Bez zaufania nie można budować relacji ani współpracy. Zaufanie pozwala współpracować i dzielić się danymi, wiedzą i doświadczeniem. Pozwala również na kontynuowanie współpracy w przyszłości.

Aby model był interpretowalny i godny zaufania, musi zawierać jasne wyjaśnienia tego, co robi i dlaczego to robi. Im bardziej przejrzysty jest wynik modelu, tym większe prawdopodobieństwo, że inni zaufają jego wynikom i będą chcieli ponownie z nim współpracować!

3. Debugowanie

Zrozumienie modelu i sposobu jego działania jest niezwykle ważne, gdy wyniki modelu są poniżej oczekiwań i zaczynasz zastanawiać się, co się dzieje. Jeśli nie rozumiesz modelu, bardzo trudno jest debugować, jeśli coś pójdzie nie tak z wynikami prognoz.

Na przykład, jeśli algorytm nie daje dokładnych prognoz dla niektórych punktów danych w zestawie testowym, ale dobrze radzi sobie z innymi punktami danych, być może dobre punkty danych pochodzą z tego samego rozkładu, który był w zestawie treningowym. Kiedy zrozumiesz, na które cechy Twój model patrzy najczęściej, możesz odkryć, że być może błędne punkty danych są wartościami odstającymi z perspektywy tych cech. A może w tych punktach brakuje pewnych cech.

4. Prostsza alternatywa

Dzięki możliwości interpretacji można dowiedzieć się, które cechy są ważne dla danego modelu i zaproponować prostsze modele alternatywne, które mają podobną moc predykcyjną.

Na przykład, załóżmy, że masz problem z klasyfikacją z tysiącami cech i odkrywasz, że tylko 10% z nich ma znaczenie w przewidywaniu rezygnacji klientów. Teraz wiesz, które cechy mają znaczenie, a które nie, więc może być możliwe usunięcie nieistotnych cech i ponowne wytrenowanie modelu. Będzie to szybsze, ponieważ ma mniej parametrów. Ale także proces gromadzenia i wstępnego przetwarzania danych będzie prostszy. 

5. Rozszerzanie wiedzy o domenie

Narzędzia do wyjaśniania modelu pokazują nam cechy, które mają największy wpływ na wynik modelu. Niektóre relacje między cechami i korelacje z wynikami mogą być bardzo intuicyjne i znane ekspertom, np. jeśli próbujesz przewidzieć, czy klient nie spłaci pożyczki, historia jego spłaty może być ważnym czynnikiem. Jednak modele bardzo często wykrywają korelacje wcześniej niezbadane przez człowieka. Dzięki temu ludzkie decyzje mogą być w przyszłości lepsze, nawet jeśli nie zdecydujemy się na zastąpienie ich modelem.

6. Zgodność z przepisami

Jeśli model jest wykorzystywany do określenia, czy można uzyskać zgodę na coś (pożyczkę, ubezpieczenie medyczne itp.), ważne jest, aby upewnić się, że model ma sens i zapewnia dokładną odpowiedź. Jeśli decyzja opiera się na nieprzejrzystej czarnej skrzynce, możesz nie mieć pojęcia, dlaczego jedna osoba została zatwierdzona, a inna nie. Ten brak przejrzystości oznacza również, że trudno będzie udowodnić, że model działa prawidłowo w sądzie, jeśli pojawią się problemy z jego prognozami w przyszłości.

Te sześć powodów wyjaśnia, dlaczego interpretowalność modelu jest ważna.

Posiadanie interpretowalnego modelu jest ważne, aby mieć pewność, że model działa dobrze i budować zaufanie między Tobą a użytkownikami końcowymi. Jest to również ważne dla debugowania modelu, co może pomóc w szybkim wyizolowaniu problemów i naprawieniu ich przed wdrożeniem modelu w produkcji.

Wyjaśnienie modelu jest przydatne również wtedy, gdy nie będziesz korzystać z aktualnej wersji modelu - umożliwiając zbudowanie prostszej alternatywy lub poszerzając wiedzę ludzkich ekspertów i poprawiając ich decyzje. 

Wreszcie, jeśli przechodzisz przez kontrole zgodności z przepisami, posiadanie interpretowalnej wersji modelu znacznie ułatwi te procedury.

Mam nadzieję, że ten artykuł okazał się przydatny w Twojej podróży do nauki o danych. Więcej artykułów znajdziesz na naszym blogu!

Spis treści
Pobierz nasz ebook
Otrzymuj najnowsze informacje na temat AI i Data Science.
Pobierz

Gotowy, aby stworzyć własny system AI?

Polskie biuro
COGITA Sp. z o.o.
ul. Łąkowa 4
42-282 Widzów, Polska
UK Office
COGITA.AI Limited
93 Tanorth Road
Bristol, BS14 0NT, Anglia
Usługi
Rozwiązania
Zasoby
Cogita