Vještačka inteligencija čita emociju na našim licima ali im problem stvaraju običaji

Sistemi vještačke inteligencije koji mogu da „čitaju“ emocije zasnivaju se na zastarjelim podacima, te zbog toga predstavljaju rizik, budući da vrlo lako mogu da budu nepouzdani.

Na ove probleme je među prvima upozorila psihologinja Lisa Feldman Barrett, a prije svega na to da različiti izrazi lica u različitim kulturama imaju drugačija značenja. Tako oni koji dolaze iz različitih područja drugačije pokazuju svoja osjećanja, pa je raspon načina na koje se iskazuju osjećanja mnogo veći nego što se ranije mislilo. Problem je u tome što tehnologije koje su zadužene za tumačenje emocija već imaju svoju primjenu u realnom svetu, pa u nekim slučajevima donose i važne odluke o ljudskim životima.

Tako je, na primjer, kompanija Unilever u oktobru 2019. sistem vještačke inteligencije iskoristila tokom intervjua za posao, i uz pomoć softvera analizirala video intervjue. Radi se o sistemu koji je kreirao HireVue, i koji analizira facijalne ekspresije, govor tijela, te riječi koje ispitanik koristi, da bi na osnovu toga donosio zaključke o kvalitetima, i kandidate preporučivao upravo na osnovu toga.

Feldman Barrett je na kraju objasnila da ideja o univerzalnim izrazima lica za sreću, strah, ljutnju, iznenađenje i gađenje potiče iz šezdesetih godina prošlog vijeka, te istraživanja psihologa Paula Ekmana u okviru kojeg je „dokazao“ da su pripadnici jednog izolovanog plemena sa Papue Nove Gvineje davali slične odgovore kao Amerikanci, a kada su upitani da protumače emocije subjekata sa ponuđenih fotografija. Moderna istraživanja pokazuju da pored osnovnih emocija, te facijalnih ekspresija koje ih prate, postoji čitav niz načina na koje ljudi ispoljavaju emocije u različitim kulturama, pa se ističe da je to dovoljan razlog da sistemi vještačke inteligencije ne tumače izraze lica, a kako na osnovu pogrešnih tumačenja ne bi donosili i pogrešne odluke.

Izvor: The Guardian

Ostavite komentar