Kas ir izskaidrojams MI?
Izskaidrojams MI (XAI) ir tehni ku kopums, lai saprastu un izskaidrotu, kāpēc MI modelis pieņēma konkrētu lēmumu. Atšķirībā no "melnās kastes" XAI nodrošina ieskatu modeļa argumentācijas procesā.
Kāpēc AI Act prasa izskaidrojamību?
AI Act (13. pants) nosaka "caurskatāmību" augsta riska sistēmām — lietotājiem jāsaprot, kā sistēma nonāca pie sava lēmuma. Tas attiecas uz kredītu novērtēšanu, personāla atlasi, medicīnisko diagnostiku. Izskaidrojamības trūkums = normatīva neatbilstība.
XAI tehnikas
SHAP — parāda katras pazīmes ieguldījumu lēmumā. LIME — lokāla aproksimācija ar vienkāršāku, interpretējamu modeli. Uzmanības kartes — vizualizācija tam, uz ko modelis "skatījās" ievades datos. Chain of Thought — skaidra soli-pa-solim argumentācija ģeneratīviem modeļiem.