Lura lejn il-glossarju Intelliġenza Artifiċjali

AI Alignment

L-isfida li tiżgura li sistemi tal-AI jaġixxu skont il-valuri umani, l-intenzjonijiet, u r-rekwiżiti tas-sikurezza.

Il-Problema tal-Alignment

AI alignment hija l-isfida li tiżgura li sistemi ta' intelliġenza artifiċjali jsegwu għanijiet li huma konsistenti mal-valuri umani, l-intenzjonijiet, u r-rekwiżiti tas-sikurezza. Hekk kif sistemi tal-AI jsiru aktar kapaċi, ir-riskju ta' misalignment — fejn sistema tottimizza għal oġġettiv li jiddevja minn dak li l-bniedem veru ried — jsir aktar gravi. L-alignment mhijiex biss sfida teknika iżda waħda filosofika wkoll: il-valuri umani huma kumplessi, kontestwali, u kultivament varjabbli.

Sfidi Tekniċi

L-alignment tirrikjedi li tindirizza diversi problemi tekniċi. L-ispeċifikazzjoni tar-rikompensi għandha tiżgura li l-funzjoni tal-oġġettiv tikkattura verament dak li rridu. Il-ħakk tar-rikompensi jseħħ meta sistema ssib modi mhux intenzjonati biex tottimizza l-metrika tagħha mingħajr ma twettaq l-għan intenzjonat. Ir-robustezza distributiva teħtieġ li sistemi jaġixxu tajjeb f'sitwazzjonijiet li ma ltaqgħux magħhom fit-taħriġ. Is-scalable oversight tfittex modi kif il-bnedmin jivverifikaw l-imġiba ta' sistemi li jwettqu kompiti wisq kumplessi għall-evalwazzjoni umana diretta.

Approċċi Prattiċi

L-approċċi attwali tal-alignment jinkludu reinforcement learning from human feedback (RLHF), fejn il-mudelli jiġu raffinati biex jippreferixxu outputs li l-bnedmin jevalwaw bħala utli u bla ħsara. Constitutional AI jistabbilixxi prinċipji li jiggwidaw l-imġiba tal-mudelli. Red teaming tesplora b'mod sistematiku modi ta' falliment. L-interpretabbiltà tfittex li tagħmel il-proċessi ta' deċiżjoni tal-AI trasparenti. Għall-intrapriżi, l-alignment jinvolvi stabbiliment ta' linji gwida ċari għall-imġiba tal-AI, implimentazzjoni ta' sorveljanza umana f'punti ta' deċiżjoni kritiċi, u ħolqien ta' ċirkwiti ta' feedback fejn l-utenti jistgħu jirrappurtaw meta l-AI jaġixxi b'modi mhux mistennija.