East Anglia Ülikooli teadlaste läbi viidud uuring näitab, et üks populaarsemaid jutu-tehisarusid, ettevõtte OpenAI robot ChatGPT, on üheselt progressistlike poliitikate poole kaldu.
Uuring avaldati teadusajakirjas Public Choice ja see näitab, et ChatGPT tolle algseadetes, eelistab Ameerika Ühendriikides demokraate, Ühendkuningriigis tööparteid ja Brasiilias pahemäärmuslasest presidenti Lula da Silvat, vahendab Breitbart.
Teadlased palusid ChatGPTl kehastada erinevate parteide ja maailmavaadete toetajaid ja seejärel küsisid selle käest 60 ideoloogilist küsimust. Vastuseid võrreldi juturoboti vaikimisi vastustega. Selline lähenemine lubas teadlastel uurida, kas ChatGPT vaikimisi vastused eelistavad teatud poliitilisi vaateid.
Konservatiivid on osutanud juturoboti avalikustamisest peale, et see on selgelt kallutatud.
Selleks, et ületada raskusi, mida kujutab endast näiteks suurtele keelemudelitele, mis käitavad ChatGPT sarnaseid kunstaru platvorme, sisse ehitatud juhuslikus, küsiti igat küsimust sada korda ja koguti kokku erinevad vastused. Need vastused lasti seejärel läbi 1000-kordsest alglaadurist (bootstrap; mis on algse andmestiku uuesti testimise meetod), millega suurendati loodud teksti järelduste usaldusväärsust.
Uuringu autori Fabio Motoki sõnul on ajal, kui avalikke kunstaru süsteeme, nagu seda on ChatGPT, kasutatakse üha rohkem uue sisu loomiseks oluline, et need oleksid nii erapooletud kui vähegi võimalik.
"Kui need on poliitiliselt kallutatud, võib see mõjutada kasutaja vaateid ja omada mõju poliitilisele ning valimisprotsessile," jätkas Motoki.
"Meie teadustöö tulemused kinnitavad muret, et AI süsteemid võivad korrata või isegi võimendada interneti ja sotsiaalmeedia poolt esitatud väljakutseid."
Teadustöö tarbeks koostatud tehisaru kallutatuse testimise tööriist, mida on väidetavalt suhteliselt lihtne kasutada, tehakse tulevikus inimestele tasuta kättesaadavaks, millega loodetakse tehisaru järelvalvet "demokratiseerida". Lisaks poliitilisele kallutatusele, on sellega võimalik hinnata ka ChatGPT vastuste muid tüüpe erapoolikusi.
Kuigi konkreetses teadustöös ei uuritud, mis võiks olla kallutatuse täpne allikas, siis leiud osutasid siiski kahele võimalikule põhjusele.
Esimene on andmestik, mida kasutatakse robotite treenimiseks, mis võivad sisaldada kallutatud teavet ja mida arendajad pole hiljem, kas teadlikult või mitte, välja puhastanud. Teiseks põhjuseks võib olla algoritm ise, mis võimendab treeningandmete kallutatust.
Toimetas Karol Kallas