Τι είναι η Επεξηγήσιμη ΤΝ;
Η Επεξηγήσιμη ΤΝ (XAI) είναι μια συλλογή τεχνικών για την κατανόηση και εξήγηση γιατί ένα μοντέλο ΤΝ πήρε μια συγκεκριμένη απόφαση. Σε αντίθεση με ένα «μαύρο κουτί», η XAI παρέχει εικόνα της διαδικασίας συλλογιστικής του μοντέλου.
Γιατί ο AI Act απαιτεί επεξηγησιμότητα;
Ο AI Act (Άρθρο 13) επιβάλλει «διαφάνεια» για συστήματα υψηλού κινδύνου — οι χρήστες πρέπει να κατανοούν πώς το σύστημα κατέληξε στην απόφασή του. Αυτό ισχύει για πιστωτική βαθμολόγηση, προσλήψεις, ιατρική διάγνωση. Έλλειψη επεξηγησιμότητας = μη συμμόρφωση κανονισμών.
Τεχνικές XAI
SHAP — δείχνει τη συμβολή κάθε χαρακτηριστικού στην απόφαση. LIME — τοπική προσέγγιση με απλούστερο, ερμηνεύσιμο μοντέλο. Χάρτες προσοχής — οπτικοποίηση του τι «κοίταξε» το μοντέλο στα δεδομένα εισόδου. Chain of Thought — ρητή βηματική συλλογιστική για παραγωγικά μοντέλα.