Atpakaļ uz vārdnīcu Uzņēmējdarbība un pārvaldība

Izskaidrojams MI (XAI)

Tehnikas, kas ļauj saprast, kāpēc MI modelis pieņēma konkrētu lēmumu — izšķiroši svarīgi uzticēšanās, auditēšanas un AI Act atbilstības nodrošināšanai.

Kas ir izskaidrojams MI?

Izskaidrojams MI (XAI) ir tehni ku kopums, lai saprastu un izskaidrotu, kāpēc MI modelis pieņēma konkrētu lēmumu. Atšķirībā no "melnās kastes" XAI nodrošina ieskatu modeļa argumentācijas procesā.

Kāpēc AI Act prasa izskaidrojamību?

AI Act (13. pants) nosaka "caurskatāmību" augsta riska sistēmām — lietotājiem jāsaprot, kā sistēma nonāca pie sava lēmuma. Tas attiecas uz kredītu novērtēšanu, personāla atlasi, medicīnisko diagnostiku. Izskaidrojamības trūkums = normatīva neatbilstība.

XAI tehnikas

SHAP — parāda katras pazīmes ieguldījumu lēmumā. LIME — lokāla aproksimācija ar vienkāršāku, interpretējamu modeli. Uzmanības kartes — vizualizācija tam, uz ko modelis "skatījās" ievades datos. Chain of Thought — skaidra soli-pa-solim argumentācija ģeneratīviem modeļiem.

Saistītie pakalpojumi un produkti