Επιστροφή στο γλωσσάριο Επιχειρήσεις & Διακυβέρνηση

Επεξηγήσιμη ΤΝ (XAI)

Τεχνικές που επιτρέπουν την κατανόηση γιατί ένα μοντέλο ΤΝ πήρε μια συγκεκριμένη απόφαση — κρίσιμες για εμπιστοσύνη, ελέγχους και συμμόρφωση AI Act.

Τι είναι η Επεξηγήσιμη ΤΝ;

Η Επεξηγήσιμη ΤΝ (XAI) είναι μια συλλογή τεχνικών για την κατανόηση και εξήγηση γιατί ένα μοντέλο ΤΝ πήρε μια συγκεκριμένη απόφαση. Σε αντίθεση με ένα «μαύρο κουτί», η XAI παρέχει εικόνα της διαδικασίας συλλογιστικής του μοντέλου.

Γιατί ο AI Act απαιτεί επεξηγησιμότητα;

Ο AI Act (Άρθρο 13) επιβάλλει «διαφάνεια» για συστήματα υψηλού κινδύνου — οι χρήστες πρέπει να κατανοούν πώς το σύστημα κατέληξε στην απόφασή του. Αυτό ισχύει για πιστωτική βαθμολόγηση, προσλήψεις, ιατρική διάγνωση. Έλλειψη επεξηγησιμότητας = μη συμμόρφωση κανονισμών.

Τεχνικές XAI

SHAP — δείχνει τη συμβολή κάθε χαρακτηριστικού στην απόφαση. LIME — τοπική προσέγγιση με απλούστερο, ερμηνεύσιμο μοντέλο. Χάρτες προσοχής — οπτικοποίηση του τι «κοίταξε» το μοντέλο στα δεδομένα εισόδου. Chain of Thought — ρητή βηματική συλλογιστική για παραγωγικά μοντέλα.