Umjetna inteligencija preuzima predrasude

Računalo također uči stereotipe prilikom učenja jezika iz tekstova

Umjetna inteligencija također razvija predrasude. © Andrea Danti / thinkstock
čitati naglas

Rasistička mašina: Kad umjetna inteligencija uči jezik iz tekstualnih zapisa, također nasljeđuje stereotipe koje sadrži. Test povezanosti otkriva da takvi računalni programi tada pokazuju iste rasne predrasude ili rodne stereotipe kao i mnogi ljudi u našem društvu. To bi u budućnosti moglo postati pravi problem - naime kad umjetne inteligencije sve više preuzimaju zadatke u našem svakodnevnom životu.

Računalni sustavi koji oponašaju ljudsku inteligenciju sada savladavaju zapanjujuće sposobnosti: stroj mozga neovisno procjenjuje ili čak piše jezik, slike i tekstove. Osim toga, naučili su jedni druge učiti nečemu i mogu se bez problema boriti sa složenim zadacima. Pobjednik KI programa protiv ljudskih protivnika u pokeru, Go i u igri pitanja Jeopardy nedavno je izazvao velike pomutnje.

Međutim, da bi strojevi mogli obavljati slične usluge kao i ljudi, prvo moraju naučiti. Informatičari ih hrane ogromnim količinama podataka. Ovo su temelji na kojima AI sustavi prepoznaju obrasce i konačno ih primjenjuju za simulaciju inteligentnog ponašanja. Chatboti ili prevoditeljski programi hrane stručnjake, na primjer, govornim i pisanim jezikom i uspostavljaju veze između riječi i izraza.

Škola jezika za AI

Algoritmi poput programa "GloVe" uče o takozvanom ugrađivanju riječi. Oni traže uobičajenu pojavu riječi i preslikavaju te odnose u matematičke vrijednosti. To im omogućuje da razumiju semantičke sličnosti, na primjer između "političara" i "političara", i prepoznaju da je odnos između ova dva pojma sličan onome između "muškarca" i "žene".

Znanstvenici predvođeni Aylin Caliskan sa Sveučilišta Princeton sada su testirali vještine "GloVe" stečene na ovaj način i otkrili su da je jezično znanje programa prepuno kulturnih stereotipa i predrasuda. prikaz

Nesvjesne predrasude

Za svoju studiju, istraživači su koristili metodu poznatu u psihologiji kao implicitni test asocijacije. Ovaj test namijenjen je otkrivanju nesvjesnih, stereotipnih očekivanja. Ispitanici moraju tvoriti parove izraza koji su im slični, kao i parove izraza koji im ne pripadaju.

Ispada da, na primjer, mnogi ljudi riječ "cvijet" povezuju s pridjevom "ugodan" - "kukac", ali više kao "neugodan" osjećaj. Caliskan i njezini kolege prilagodili su ovu metodu za svoje istraživanje umjetne inteligencije: koje bi asocijacije u programu činile različite termine?

Rasistički program

Rezultati su pokazali: Nekoliko stereotipa i predrasuda, koji se redovito otkrivaju kod ljudi putem Implicitnog testa udruživanja, također je internalizirao "GloVe". Na primjer, program je muška imena koja su uobičajena u afroameričkim krugovima tumačio kao prilično neugodna i imena koja su češća među bijelcima, a ne ugodna. Također je ženska imena povezala više s umjetnošću, a mužjaka s matematikom.

Za istraživače to jasno pokazuje: AI sustavi također prihvaćaju stereotipe sadržane izričito ili implicitno u učenju iz podataka. Stručnjaci nisu iznenađeni ovim nalazom: "To nije iznenađujuće, jer tekst pjesme pišu ljudi koji, naravno, ne utječu na predrasude", komentira lingvist Joachim Scharloth sa Tehnološkog sveučilišta u Dresdenu.

"Kada se AI sustavi obučavaju s jednostranim podacima, nije čudno što uče jednostrani pogled na svijet. Prošle godine bilo je primjera Microsoftovih Chatbots Tay-a, internetskih trolova koji se podučavaju rasistički jezik ili aplikacije Google Photos, koja je vjerovala da su tamni korisnici gorila ", dodaje Christian Bauckhage iz Instituta Fraunhofer za inteligentne analize i informacijske sustave u Sankt Augustinu.

Problematična izobličenja

Takvi strojni mozgovi s rasističkim i diskriminirajućim stavovima mogli bi postati stvarni problem u budućnosti: naime, kad programi obavljaju zadatke u našem svakodnevnom životu - i, na primjer, donošenjem preliminarnih odluka na temelju jezične analize upoznajte koji su kandidati pozvani na razgovor za zapošljavanje.

Znanstvenici sada raspravljaju o tome kako ukloniti izobličenja iz skupova podataka. Istovremeno, neki vide prihvaćanje predrasuda prema AI sustavima kao priliku - jer nam programi na taj način nekako pružaju ogledalo: "Činjenica da strojno učenje može razotkriti stereotipe također je dobitak za razumijevanje društava "Kaže Scharloth. (Znanost, 2017; doi: 10.1126 / science.aal4230)

(Znanost, 18.04.2017. - DAL)