Transparentnosť rieši tento problém pomocou ľahko interpretovateľných modelov, z ktorých niektorým sa budeme venovať v ďalšej časti. Vysvetliteľnosť rieši tento problém „rozbalením čiernej skrinky“alebo pokusom získať prehľad z modelu strojového učenia, často pomocou štatistických metód.
Čo je vysvetliteľnosť modelu?
Vysvetliteľnosť modelu je široký koncept analýzy a pochopenia výsledkov poskytovaných modelmi ML. Najčastejšie sa používa v kontexte „black-box“modelov, pri ktorých je ťažké demonštrovať, ako model dospel ku konkrétnemu rozhodnutiu.
Čo je vysvetliteľnosť v hlbokom učení?
Vysvetliteľnosť (tiež označovaná ako „interpretovateľnosť“) je koncept, že model strojového učenia a jeho výstup možno vysvetliť spôsobom, ktorý človeku „dáva zmysel“na prijateľnej úrovni … Iné, ako napríklad systémy hlbokého učenia, sú síce výkonnejšie, ale je oveľa ťažšie ich vysvetliť.
Čo znamená vysvetliteľnosť v kontexte systému AI?
Andrew Maturo, dátový analytik, SPR. „Vysvetliteľná AI jednoduchými slovami znamená AI, ktorá je transparentná vo svojich operáciách, takže ľudskí používatelia budú schopní porozumieť rozhodnutiam a dôverovať im Organizácie si musia položiť otázku – môžete vysvetliť, ako to vaša AI vytvorila? konkrétny pohľad alebo rozhodnutie?“–
Čo je problém vysvetlenia?
Ľudia majú zjavnú nechuť k rozhodnutiam v čiernej skrinke, ktoré ich ovplyvňujú finančne, zdravotne a desiatkami iných spôsobov, pričom zároveň ignorujú určité rôzne druhy rozhodnutí. … Keď AI robí tieto rozhodnutia, je počuť dopyt po vysvetliteľnosti.