{"id":1737,"date":"2024-05-13T13:47:54","date_gmt":"2024-05-13T11:47:54","guid":{"rendered":"https:\/\/cogita.ai\/?p=1737"},"modified":"2026-02-25T17:27:27","modified_gmt":"2026-02-25T16:27:27","slug":"6-reasons-why-interpretability-of-the-model-is-important","status":"publish","type":"post","link":"https:\/\/cogita.ai\/pl\/6-reasons-why-interpretability-of-the-model-is-important\/","title":{"rendered":"6 powod\u00f3w, dla kt\u00f3rych interpretowalno\u015b\u0107 modelu jest wa\u017cna"},"content":{"rendered":"<p>Jednak w miar\u0119 jak modele staj\u0105 si\u0119 coraz bardziej z\u0142o\u017cone, mo\u017ce by\u0107 trudno dowiedzie\u0107 si\u0119, co powoduje, \u017ce tworz\u0105 one okre\u015blone prognozy. Dlatego te\u017c obserwujemy szybki wzrost liczby narz\u0119dzi interpretacyjnych, takich jak\u00a0<a href=\"https:\/\/shap.readthedocs.io\/en\/latest\/\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">SHAP<\/a>\u00a0lub\u00a0<a href=\"https:\/\/www.rdocumentation.org\/packages\/DALEX\/versions\/2.4.2\" target=\"_blank\" rel=\"noreferrer noopener nofollow\">DALEX<\/a>.\u00a0<\/p>\n\n\n\n<p>W tym artykule om\u00f3wi\u0119 kilka powod\u00f3w, dla kt\u00f3rych interpretowalno\u015b\u0107 jest tak wa\u017cna. Powod\u00f3w jest wi\u0119cej ni\u017c mo\u017cna by si\u0119 spodziewa\u0107, a niekt\u00f3re z nich s\u0105 bardzo nieoczywiste.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">1. Wi\u0119ksza pewno\u015b\u0107, \u017ce model dzia\u0142a dobrze<\/h3>\n\n\n\n<p>Jednym z najwa\u017cniejszych aspekt\u00f3w interpretowalno\u015bci jest to, \u017ce pozwala ona zyska\u0107 zaufanie do modelu i mie\u0107 pewno\u015b\u0107, \u017ce robi on to, co powinien.<\/p>\n\n\n\n<p>Pierwszym krokiem do oceny jako\u015bci modelu jest odpowiednio zdefiniowana metryka, w zale\u017cno\u015bci od zastosowania - mo\u017ce to by\u0107 np. dok\u0142adno\u015b\u0107, wynik f1 lub MAPE. Jednak nawet je\u015bli wybrali\u015bmy odpowiedni\u0105 metryk\u0119, mo\u017ce ona zosta\u0107 obliczona w niew\u0142a\u015bciwy spos\u00f3b lub mo\u017ce by\u0107 nieinformatywna. Dlatego zazwyczaj mo\u017cemy osi\u0105gn\u0105\u0107 najwy\u017csz\u0105 pewno\u015b\u0107 co do jako\u015bci modelu tylko poprzez zrozumienie, co robi i dlaczego daje takie prognozy.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">2. Budowanie zaufania<\/h3>\n\n\n\n<p>W projektach Machine Learning zaufanie jest podstaw\u0105. Bez zaufania nie mo\u017cna budowa\u0107 relacji ani wsp\u00f3\u0142pracy. Zaufanie pozwala wsp\u00f3\u0142pracowa\u0107 i dzieli\u0107 si\u0119 danymi, wiedz\u0105 i do\u015bwiadczeniem. Pozwala r\u00f3wnie\u017c na kontynuowanie wsp\u00f3\u0142pracy w przysz\u0142o\u015bci.<\/p>\n\n\n\n<p>Aby model by\u0142 interpretowalny i godny zaufania, musi zawiera\u0107 jasne wyja\u015bnienia tego, co robi i dlaczego to robi. Im&nbsp;bardziej przejrzysty jest wynik modelu, tym wi\u0119ksze prawdopodobie\u0144stwo, \u017ce inni zaufaj\u0105 jego wynikom i b\u0119d\u0105 chcieli ponownie z nim wsp\u00f3\u0142pracowa\u0107!<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">3. Debugowanie<\/h3>\n\n\n\n<p>Zrozumienie modelu i sposobu jego dzia\u0142ania jest niezwykle wa\u017cne, gdy wyniki modelu s\u0105 poni\u017cej oczekiwa\u0144 i zaczynasz zastanawia\u0107 si\u0119, co si\u0119 dzieje. Je\u015bli nie rozumiesz modelu, bardzo trudno jest debugowa\u0107, je\u015bli co\u015b p\u00f3jdzie nie tak z wynikami prognoz.<\/p>\n\n\n\n<p>Na przyk\u0142ad, je\u015bli algorytm nie daje dok\u0142adnych prognoz dla niekt\u00f3rych punkt\u00f3w danych w zestawie testowym, ale dobrze radzi sobie z innymi punktami danych, by\u0107 mo\u017ce dobre punkty danych pochodz\u0105 z tego samego rozk\u0142adu, kt\u00f3ry by\u0142 w zestawie treningowym. Kiedy zrozumiesz, na kt\u00f3re cechy Tw\u00f3j model patrzy najcz\u0119\u015bciej, mo\u017cesz odkry\u0107, \u017ce by\u0107 mo\u017ce b\u0142\u0119dne punkty danych s\u0105 warto\u015bciami odstaj\u0105cymi z perspektywy tych cech. A mo\u017ce w tych punktach brakuje pewnych cech.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">4. Prostsza alternatywa<\/h3>\n\n\n\n<p>Dzi\u0119ki mo\u017cliwo\u015bci interpretacji mo\u017cna dowiedzie\u0107 si\u0119, kt\u00f3re cechy s\u0105 wa\u017cne dla danego modelu i zaproponowa\u0107 prostsze modele alternatywne, kt\u00f3re maj\u0105 podobn\u0105 moc predykcyjn\u0105.<\/p>\n\n\n\n<p>Na przyk\u0142ad, za\u0142\u00f3\u017cmy, \u017ce masz problem z klasyfikacj\u0105 z tysi\u0105cami cech i odkrywasz, \u017ce tylko 10% z nich ma znaczenie w przewidywaniu rezygnacji klient\u00f3w. Teraz wiesz, kt\u00f3re cechy maj\u0105 znaczenie, a kt\u00f3re nie, wi\u0119c mo\u017ce by\u0107 mo\u017cliwe usuni\u0119cie nieistotnych cech i ponowne wytrenowanie modelu. B\u0119dzie to szybsze, poniewa\u017c ma mniej parametr\u00f3w. Ale tak\u017ce proces gromadzenia i wst\u0119pnego przetwarzania danych b\u0119dzie prostszy.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">5. Rozszerzanie wiedzy o domenie<\/h3>\n\n\n\n<p>Narz\u0119dzia do wyja\u015bniania modelu pokazuj\u0105 nam cechy, kt\u00f3re maj\u0105 najwi\u0119kszy wp\u0142yw na wynik modelu. Niekt\u00f3re relacje mi\u0119dzy cechami i korelacje z wynikami mog\u0105 by\u0107 bardzo intuicyjne i znane ekspertom, np. je\u015bli pr\u00f3bujesz przewidzie\u0107, czy klient nie sp\u0142aci po\u017cyczki, historia jego sp\u0142aty mo\u017ce by\u0107 wa\u017cnym czynnikiem. Jednak modele bardzo cz\u0119sto wykrywaj\u0105 korelacje wcze\u015bniej niezbadane przez cz\u0142owieka. Dzi\u0119ki temu ludzkie decyzje mog\u0105 by\u0107 w przysz\u0142o\u015bci lepsze, nawet je\u015bli nie zdecydujemy si\u0119 na zast\u0105pienie ich modelem.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">6. Zgodno\u015b\u0107 z przepisami<\/h3>\n\n\n\n<p>Je\u015bli model jest wykorzystywany do okre\u015blenia, czy mo\u017cna uzyska\u0107 zgod\u0119 na co\u015b (po\u017cyczk\u0119, ubezpieczenie medyczne itp.), wa\u017cne jest, aby upewni\u0107 si\u0119, \u017ce model ma sens i zapewnia dok\u0142adn\u0105 odpowied\u017a. Je\u015bli decyzja opiera si\u0119 na nieprzejrzystej czarnej skrzynce, mo\u017cesz nie mie\u0107 poj\u0119cia, dlaczego jedna osoba zosta\u0142a zatwierdzona, a inna nie. Ten brak przejrzysto\u015bci oznacza r\u00f3wnie\u017c, \u017ce trudno b\u0119dzie udowodni\u0107, \u017ce model dzia\u0142a prawid\u0142owo w s\u0105dzie, je\u015bli pojawi\u0105 si\u0119 problemy z jego prognozami w przysz\u0142o\u015bci.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Te sze\u015b\u0107 powod\u00f3w wyja\u015bnia, dlaczego interpretowalno\u015b\u0107 modelu jest wa\u017cna.<\/h3>\n\n\n\n<p>Posiadanie interpretowalnego modelu jest wa\u017cne, aby mie\u0107 pewno\u015b\u0107, \u017ce model dzia\u0142a dobrze i budowa\u0107 zaufanie mi\u0119dzy Tob\u0105 a u\u017cytkownikami ko\u0144cowymi. Jest to r\u00f3wnie\u017c wa\u017cne dla debugowania modelu, co mo\u017ce pom\u00f3c w szybkim wyizolowaniu problem\u00f3w i naprawieniu ich przed wdro\u017ceniem modelu w produkcji.<\/p>\n\n\n\n<p>Wyja\u015bnienie modelu jest przydatne r\u00f3wnie\u017c wtedy, gdy nie b\u0119dziesz korzysta\u0107 z aktualnej wersji modelu - umo\u017cliwiaj\u0105c zbudowanie prostszej alternatywy lub poszerzaj\u0105c wiedz\u0119 ludzkich ekspert\u00f3w i poprawiaj\u0105c ich decyzje.&nbsp;<\/p>\n\n\n\n<p>Wreszcie, je\u015bli przechodzisz przez kontrole zgodno\u015bci z przepisami, posiadanie interpretowalnej wersji modelu znacznie u\u0142atwi te procedury.<\/p>\n\n\n\n<p>Mam nadziej\u0119, \u017ce ten artyku\u0142 okaza\u0142 si\u0119 przydatny w Twojej podr\u00f3\u017cy do nauki o danych. Wi\u0119cej artyku\u0142\u00f3w znajdziesz na naszym blogu!<\/p>","protected":false},"excerpt":{"rendered":"<p>Machine Learning has become a fundamental part of many companies\u2019 data science efforts.<\/p>","protected":false},"author":1,"featured_media":1740,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-1737","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-in-business"],"acf":[],"_links":{"self":[{"href":"https:\/\/cogita.ai\/pl\/wp-json\/wp\/v2\/posts\/1737","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/cogita.ai\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cogita.ai\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cogita.ai\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/cogita.ai\/pl\/wp-json\/wp\/v2\/comments?post=1737"}],"version-history":[{"count":3,"href":"https:\/\/cogita.ai\/pl\/wp-json\/wp\/v2\/posts\/1737\/revisions"}],"predecessor-version":[{"id":2242,"href":"https:\/\/cogita.ai\/pl\/wp-json\/wp\/v2\/posts\/1737\/revisions\/2242"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cogita.ai\/pl\/wp-json\/wp\/v2\/media\/1740"}],"wp:attachment":[{"href":"https:\/\/cogita.ai\/pl\/wp-json\/wp\/v2\/media?parent=1737"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cogita.ai\/pl\/wp-json\/wp\/v2\/categories?post=1737"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cogita.ai\/pl\/wp-json\/wp\/v2\/tags?post=1737"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}