Tehnologija i energija

Filozofi su dugo proučavali 'kontračinjenice' - pomaže li to otkriti misterije umjetne inteligencije

V.P.

Umjetna inteligencija sve se više širi po cijelom svijetu kako bi pomogla u donošenju odluka, bilo da se radi o odlukama banaka, medicinskim dijagnozama ili predviđanjima američkih policijskih snaga da li će kriminalac ponovno počiniti kazneno djelo.

Ipak, mnogi AI sustavi predstavljaju „crne kutije”: nitko ne razumije kako rade. To je dovelo do potražnje za "objašnjivom umjetnom inteligencijom", tako da možemo razumjeti zašto je model umjetne inteligencije dao određeni rezultat i koje su pristranosti mogle igrati ulogu.

Objašnjiva umjetna inteligencija je rastuća grana istraživanja umjetne inteligencije. Ali ono što je možda manje poznato je uloga koju filozofija igra u razvoju tog istraživanja.

Konkretno, jedna ideja pod nazivom "kontračinjenično objašnjenje" često se iznosi kao rješenje problema „crne kutije”. No kad jednom shvatite filozofiju koja stoji iza toga, razumjet ćete zašto ne funkcionira kako treba.

Zašto su objašnjenja važna

Kada se umjetna inteligencija koristi za donošenje odluka koje mijenjaju život, ljudi na koje se to odnosi zaslužuju objašnjenje kako je ta odluka donesena. To je nedavno priznato Općom uredbom Europske unije o zaštiti podataka, koja podržava pravo pojedinca na objašnjenje.

Potreba za objašnjenjem također je istaknuta u slučaju Robodebt u Australiji, gdje je korišten algoritam za predviđanje razine duga za pojedince koji primaju socijalno osiguranje. Sustav je napravio mnogo grešaka te dužnima učinio ljude koje nije trebao učiniti dužnima.


Pogreška je identificirana tek nakon što je algoritam u potpunosti objašnjen - no do tada je šteta već bila učinjena. Ishod je bio toliko štetan da je doveo do osnivanja Kraljevske komisije u kolovozu 2022. godine.

U slučaju Robodebt, algoritam o kojem je riječ bio je prilično jednostavan i mogao se objasniti. Ne bismo trebali očekivati da će u budućnosti to uvijek biti slučaj. Trenutačni modeli umjetne inteligencije koji koriste strojno učenje za obradu podataka mnogo su sofisticiraniji.

Velika, blistava „crna kutija”

Pretpostavimo da osoba po imenu Sara podnese zahtjev za zajam. Banka od nje traži podatke uključujući njezin bračni status, razinu duga, prihode, ušteđevinu, kućnu adresu i dob.

Banka zatim unosi te informacije u sustav umjetne inteligencije, koji vraća kreditnu ocjenu. Ocjena je niska i koristi se za diskvalificiranje Sare, ali ni Sara ni zaposlenici banke ne znaju zašto je sustav Sari dao tako nisku ocjenu.

Za razliku od Robodebta, algoritam koji se ovdje koristi može biti izuzetno kompliciran i nije ga lako objasniti. Stoga ne postoji jednostavan način da se sazna je li pogriješio, a Sara nema načina dobiti informacije koje su joj potrebne da bi se žalila na odluku.

Ovakav scenarij nije posve hipotetski: odluke o zajmovima u SAD-u vjerojatno će biti povjerene algoritmima te postoji stvarni rizik da će biti pristranosti. Kako bismo smanjili rizik, moramo pokušati objasniti kako algoritmi rade.

Kontračinjenični pristup

Općenito govoreći, postoje dvije vrste pristupa objašnjivoj umjetnoj inteligenciji. Jedan uključuje „probijanje” sustava i proučavanje njegovih unutarnjih komponenti da bi se razumjelo kako funkcionira. No to obično nije moguće zbog same kompleksnosti mnogih AI sustava.

Drugi pristup je ostaviti sustav neotvorenim te proučavati njegove ulaze i izlaze, tražeći uzorke. Metoda "kontračinjeničnog stanja" potpada pod ovaj pristup.

Kontračinjenice su tvrdnje o tome što bi se dogodilo da su se stvari odvijale drugačije. U kontekstu umjetne inteligencije, to znači razmotriti kako bi izlaz iz sustava umjetne inteligencije mogao biti drugačiji ako primi različite ulaze. Zatim to možemo upotrijebiti da objasnimo zašto je sustav dao rezultat koji je dao.

Pretpostavimo da banka opskrbljuje svoj AI sustav različitim (manipuliranim) informacijama o Sari. Iz toga banka izračunava da bi najmanja promjena koju bi Sara trebala za postići pozitivan ishod bila povećanje njezinih prihoda.

Banka to očito može upotrijebiti kao objašnjenje: Sarin je kredit odbijen jer su joj prihodi bili preniski. Da su joj prihodi veći, dobila bi kredit.

Takva kontračinjenična objašnjenja ozbiljno se razmatraju kao način zadovoljenja potražnje za objašnjivom umjetnom inteligencijom, uključujući slučajeve zahtjeva za kredit i korištenje umjetne inteligencije za donošenje znanstvenih otkrića.

Međutim, kao što su znanstvenici tvrdili, kontračinjenični pristup je neadekvatan.

Korelacija i objašnjenje

Kada uzmemo u obzir promjene ulaza sustava umjetne inteligencije i kako se one prevode u izlaze, uspijevamo prikupiti informacije o korelacijama. Ali, kako kaže stara poslovica, korelacija nije uzročnost.

Razlog za to je problem, jer filozofski rad upućuje na to da je uzročnost usko povezana s objašnjenjem. Da bismo objasnili zašto se neki događaj dogodio, moramo znati što ga je uzrokovalo.

Temeljem toga, banka može pogriješiti što je Sari rekla da joj je kredit odbijen jer su joj prihodi bili preniski. Sve što banka s pouzdanjem može reći je da su prihod i kreditna sposobnost povezani - a Sara još uvijek ostaje bez objašnjenja za svoj negativan rezultat.

Ono što je potrebno jest način da se informacije o kontračinjeničnim pretpostavkama i korelacijama pretvore u objašnjene informacije.

Budućnost objašnjive umjetne inteligencije

S vremenom možemo očekivati da će se umjetna inteligencija više koristiti za donošenje odluka o zapošljavanju, zahtjevima za vizu, promaknućima i državnim i federalnim odlukama o financiranju, između ostalog.

Nedostatak objašnjenja za navedene odluke prijeti znatnim povećanjem nepravde koju će ljudi doživjeti. Uostalom, bez objašnjenja ne možemo ispraviti pogreške učinjene korištenjem umjetne inteligencije. Na sreću, filozofija može pomoći.

Objašnjenje je bilo središnja tema filozofskih studija tijekom prošlog stoljeća. Filozofi su osmislili niz metoda za izvlačenje objašnjenja iz mora korelacija te razvili sofisticirane teorije o tome kako objašnjenje funkcionira.

Velik dio ovog rada bio je usredotočen na odnos između kontračinjeničnih činjenica i objašnjenja. Oslanjajući se na filozofske uvide, mogli bismo razviti bolje pristupe objašnjivoj umjetnoj inteligenciji.

Trenutno, međutim, nema dovoljno preklapanja između filozofije i informatike u ovoj temi. Ako se želimo izravno uhvatiti u koštac s nepravdom, trebat će nam integriraniji pristup koji kombinira rad na ovim poljima.

Izvor: TechXplore


Možda će vas zanimati