Poslednje:
Ponedjeljak, 20 Aprila

Generativni AI modeli su poznati po tome što pojačavaju predrasude – da li se mogu ispraviti?

Alati veštačke inteligencije (AI) često reprodukuju i pojačavaju ljudske predrasude u vezi sa rasom ili polom, ali ispravljanje takvih diskriminatornih pristrasnosti pokazalo se kao izazov. Povratak američkog predsednika Donalda Trampa na vlast nagoveštava kraj nade za napredak – osim ako Evropa ne uspe da se suprotstavi talasu deregulacije.
0
Elon Mask o generativnim AI modelima foto Lionel Bonnaventure, AFP

Elon Musk je ismevao ranije pokušaje ispravljanja diskriminatornih pristrasnosti u generativnim AI alatima. © Lionel Bonnaventure, AFP

Oronule zgrade, ulice prekrivene smećem i sumorni stanovnici u prljavoj odeći sa rupama – tako je AI alat za generisanje slika Midjourney 2023. godine prikazao francuska predgrađa, banlieue, promovišući negativne stereotipe o ovim oblastima.

Ova uvredljiva slika francuskih predgrađa bila je u centru viralne kampanje aplikacije za prevoz Heetch, koja je pozvala stanovnike da šalju razglednice programerima Midjourney-ja, tražeći uklanjanje predrasuda iz njihovog AI modela.

Kampanja je pokazala da su pretrage poput „škola u banlieue“ ili „venčanje u banlieue“ otkrile šokantne predrasude, koje su u velikom kontrastu sa slikama koje predstavljaju druge delove Francuske.

Diskriminatorna pristrasnost u chatbotovima

Slična diskriminacija prisutna je i u AI chatbotovima, posebno kada su u pitanju osobe druge boje kože, žene i osobe sa invaliditetom, kaže novinar Remi Demichelis, autor knjige o pristrasnostima u sistemima veštačke inteligencije („L’Intelligence artificielle, ses biais et les nôtres“).

Ovakva automatizovana diskriminacija potiče iz podataka na kojima se AI sistemi obučavaju, a ti podaci su često puni stereotipa, zbog čega i sami postaju pristrasni.

Na primer, istraživanja baza podataka sa fotografijama venčanja pokazala su da gotovo polovina slika dolazi iz samo dve zemlje – SAD i Velike Britanije.

„AI se oslanja na baze podataka koje uglavnom potiču iz zapadnih izvora i imaju specifičan kulturni kontekst“, objašnjava Demichelis. Zato AI sistemi mogu tradicionalne pakistanske svadbene nošnje označiti kao „narodnu nošnju“, jer većina referentnih fotografija prikazuje mlade u belim haljinama.

Rastuća svest

Ne postoji neutralan algoritam, ističe Demichelis, naglašavajući da „algoritmi ne samo da reprodukuju predrasude prisutne u društvu, već ih i pojačavaju“.

Priznavanje ovih strukturnih pristrasnosti ne oslobađa industriju i donosioca odluka od odgovornosti da ih isprave, tvrdi Žan Katan, predsednik francuskog Nacionalnog saveta za digitalnu tehnologiju, nezavisnog tela koje proučava složen odnos između digitalne tehnologije i društva.

„Svest o ovom problemu raste i zatvaranje očiju nije opcija“, kaže Katan.

Katan je pomenuo određena poboljšanja u najpoznatijim chatbotovima, ali je upozorio da brz razvoj AI tehnologija znači da svi modeli nisu pod istim nadzorom niti podležu istim standardima.

„Danas postoji mnoštvo digitalnih asistenata koji nose iste predrasude kao i ranije, ili čak izraženije predrasude, a baze podataka na kojima se obučavaju prolaze kroz minimalnu kontrolu“, upozorava on.

‘Muška energija’

Pored baza podataka, još jedan ključni faktor koji doprinosi pristrasnosti u generativnoj AI je profil inženjera koji ih kreiraju.

„Ako AI modele dizajniraju isključivo beli muškarci, manje su šanse da će uzeti u obzir diskriminatorne pristrasnosti“, kaže Demichelis.

Američka organizacija Algorithmic Justice League već dugo upozorava na neograničene i neregulisane AI sisteme koji dodatno podstiču rasizam, seksizam i druge oblike diskriminacije. Organizacija se zalaže za sprovođenje „algoritamskih revizija“ kako bi se osigurala odgovornost i smanjile predrasude.

Iako su ove revizije sve popularnije, i dalje su „slabo definisane“ i teško proverljive, upozoravaju stručnjaci. Među ključnim preporukama jeste direktno uključivanje ljudi koji su najizloženiji riziku od AI diskriminacije u proces revizije algoritama.

Međutim, povratak Donalda Trampa na vlast i naklonost tehnoloških giganata njegovoj politici nisu ohrabrujući za napore u borbi protiv diskriminacije i nedostatka odgovornosti u AI tehnologijama.

„Kada čujete Marka Zakerberga kako se žali na nedostatak ‘muške energije’ u tehnološkoj industriji, teško je očekivati napredak“, kaže Demichelis. „Sve bitke vođene poslednjih godina sada su dovedene u pitanje, a postoji realan rizik da će diskriminacija zapravo porasti.“

Google-ova AI blamaža

Industrija je pokušala da ispravi predrasude u AI modelima – ali neki pokušaji su završili neslavno.

Google-ov AI alat Gemini bio je na meti kritika prošle godine kada je neuspešan pokušaj ispravljanja pristrasnosti doveo do toga da chatbot generiše slike azijskih žena u nacističkim uniformama i tamnoputih osnivača SAD-a.

Ove istorijski netačne slike brzo su se proširile društvenim mrežama i postale deo šire kulturne debate o političkoj korektnosti, što je nateralo Google da se izvine i privremeno obustavi alat.

Elon Musk je, naravno, iskoristio priliku da se uključi u raspravu, nazvavši Gemini „woke“ i „rasističkim“, dok je istovremeno promovisao sopstvenog AI asistenta.

Ovi incidenti naglašavaju koliko je teško obučiti AI modele da neutralizuju vekove ljudskih predrasuda bez stvaranja novih problema.

„Sa tehničke strane, izuzetno je teško precizno odrediti gde se pojavljuje pristrasnost“, objašnjava Demichelis, ističući da je neka vrsta predrasude gotovo neizbežna.

Evropska regulativa

Katan smatra da će poboljšanje chatbotova u velikoj meri zavisiti od povratnih informacija korisnika i obavezivanja kompanija da izveštavaju o primljenim žalbama i povratnim informacijama.

On preporučuje korišćenje alata koji upoređuju različite AI modele, poput platforme Compar:ia koju je razvilo francusko Ministarstvo kulture.

Nada se da će novi Zakon o veštačkoj inteligenciji Evropske unije, koji će se postepeno primenjivati u naredne tri godine, zaštititi korisnike i označiti prekretnicu u regulisanju ove tehnologije.

Deo zakona, koji je stupio na snagu ranije ovog meseca, zabranjuje sisteme „biometrijske kategorizacije“ koji klasifikuju ljude na osnovu biometrijskih podataka kako bi odredili njihovu rasu, seksualnu orijentaciju, politička uverenja ili verska opredeljenja.

Ovaj zakon, prvi te vrste u svetu, izazvao je oštre kritike američkih tehnoloških giganata. Meta, matična kompanija Facebook-a, već je najavila da neće lansirati naprednu verziju svog AI modela Llama u EU, optužujući regulatore za „nepredvidivo ponašanje“.

„Ostaje da se vidi da li će EU uspeti da održi svoju poziciju“ u sukobu sa talasom deregulacije koji podržavaju Tramp i Musk, dodaje Demichelis.

Analitičari upozoravaju da Evropa zaostaje za SAD-om i Kinom u globalnoj AI trci. Njena sposobnost da se suprotstavi tehnološkim gigantima mogla bi oblikovati budućnost regulacije veštačke inteligencije.

Ostavite komentar

Dodajte oglas / firmu