Logo sk.boatexistence.com

Ako sa líši transparentnosť a vysvetliteľnosť?

Obsah:

Ako sa líši transparentnosť a vysvetliteľnosť?
Ako sa líši transparentnosť a vysvetliteľnosť?

Video: Ako sa líši transparentnosť a vysvetliteľnosť?

Video: Ako sa líši transparentnosť a vysvetliteľnosť?
Video: What Is Explainable AI? | Explainable vs Interpretable Machine Learning 2024, Júl
Anonim

Transparentnosť rieši tento problém pomocou ľahko interpretovateľných modelov, z ktorých niektorým sa budeme venovať v ďalšej časti. Vysvetliteľnosť rieši tento problém „rozbalením čiernej skrinky“alebo pokusom získať prehľad z modelu strojového učenia, často pomocou štatistických metód.

Čo je vysvetliteľnosť modelu?

Vysvetliteľnosť modelu je široký koncept analýzy a pochopenia výsledkov poskytovaných modelmi ML. Najčastejšie sa používa v kontexte „black-box“modelov, pri ktorých je ťažké demonštrovať, ako model dospel ku konkrétnemu rozhodnutiu.

Čo je vysvetliteľnosť v hlbokom učení?

Vysvetliteľnosť (tiež označovaná ako „interpretovateľnosť“) je koncept, že model strojového učenia a jeho výstup možno vysvetliť spôsobom, ktorý človeku „dáva zmysel“na prijateľnej úrovni … Iné, ako napríklad systémy hlbokého učenia, sú síce výkonnejšie, ale je oveľa ťažšie ich vysvetliť.

Čo znamená vysvetliteľnosť v kontexte systému AI?

Andrew Maturo, dátový analytik, SPR. „Vysvetliteľná AI jednoduchými slovami znamená AI, ktorá je transparentná vo svojich operáciách, takže ľudskí používatelia budú schopní porozumieť rozhodnutiam a dôverovať im Organizácie si musia položiť otázku – môžete vysvetliť, ako to vaša AI vytvorila? konkrétny pohľad alebo rozhodnutie?“–

Čo je problém vysvetlenia?

Ľudia majú zjavnú nechuť k rozhodnutiam v čiernej skrinke, ktoré ich ovplyvňujú finančne, zdravotne a desiatkami iných spôsobov, pričom zároveň ignorujú určité rôzne druhy rozhodnutí. … Keď AI robí tieto rozhodnutia, je počuť dopyt po vysvetliteľnosti.

Odporúča: