Hátrányosabban érinti a nőket a mesterséges intelligencia terjedése

Borítókép: Hátrányosabban érinti a nőket a mesterséges intelligencia terjedése
Internetes keresés, fordítóprogram, filmajánló, útvonaltervezés, (a vezető nélküli) 4-es metró… a legtöbben használunk mesterséges intelligenciát a mindennapjainkban akkor is, ha nem tudatosítjuk...

Míg az első robotok fizikai eszközök voltak a sorozatgyártás megkönnyítésére, ma már a szoftveres alapú robotok (rövidítve: botok) vették át a vezetést. Ügyfélszolgálatokon, vagy különböző alkalmazásokban is előfordul, hogy emberek helyett ők társalognak velünk. Működésük alapja a gépi tanulás, azaz a mesterséges intelligencia (MI, vagy artificial intelligence, AI). Ennek lényege, hogy egy algoritmust (problémamegoldásra szolgáló utasítássorozatot) bocsátanak egy adathalmazra, a rendszer pedig ezek alapján az adatok (minták) alapján képes az általánosításra, a szabályok megtanulására, képes döntéseket hozni. Nem egyszerűen „bemagolja” az adatokat, hanem már új adatokra is képes alkalmazni a betanult szabályszerűségeket.

A mesterséges intelligencia nagy előnyeként szokás hangoztatni, hogy képes kiiktatni a figyelem lankadásából vagy éppen a részrehajlásból eredő emberi tévedéseket. Csakhogy fény derült arra, hogy az új technológiának hátulütői is vannak (és most nem a potenciálisan megszűnő állásokra gondolunk). Éppen a részrehajlás az, amit az ígéretekkel ellentétben eddig alig sikerült megszüntetni! A mesterséges intelligencia jelenleg megőrzi, sőt felerősíti előítéleteinket, köztük a káros nemi sztereotípiákra épülő szexizmust (az egyik nem, általában a nők alacsonyabb rendűnek tételezését).

Kicsit elvont? Nézzünk néhány példát!

A Google-keresőmotor „automatikus kiegészítés” funkciója arra hivatott, hogy időt spóroljon a felhasználóknak. Ha elkezdem gépelni, hogy „éva m”, akkor a program kiegészített opciókat ajánl fel, elsőként az Éva magazint – így nem kell a szót végigírnom. A napi mintegy 6 milliárd keresést összegezve a legjellemzőbbeket ajánlja fel. Milyen probléma állhat elő ezzel a hasznos funkcióval?

Az ENSZ Nemek Egyenlőségével és a Nők Felemelkedésével Foglalkozó Egysége (UN Women) 2013-ban megmutatta, hogy mit tanult a program a felhasználóktól: Christopher Hunt kampányplakátjain a nők száját nem túl hízelgő szavak takarják el. Ha ugyanis 2013-ban beírtuk a keresőbe, hogy „women should” (azaz arra voltunk kíváncsiak, hogy mit kellene tenniük a nőknek), akkor a program olyan befejezéseket ajánlott fel, mint otthon maradni, a konyhában lenni, csendben maradni, megtanulni, hol a helyük… A kampány hatására a Google, jobb híján, annyit változtatott a programon, hogy az most már a nőkkel, valamint a különféle társadalmi kisebbségekkel (feketék, zsidók, melegek stb.) kapcsolatban nem ajánl fel semmilyen automatikus kiegészítést.

A szintén széles körben használt Google-fordítót viszont még ilyen hevenyészett módon sem sikerült szexizmustól mentessé tenni: az alany nemét többnyire a sztereotípiák szerint alakítja. Próbáljuk csak ki! Ha azt írjuk be, hogy „ő ápoló”, akkor nőnemű alannyal fordít angolra, és ez történik a takarító, sőt az utcaseprő, valamint a pultos esetében is. Az igazgatót, főszerkesztőt, professzort, tanszékvezetőt, állatorvost, újságírót, sebészt és sportolót viszont férfinak feltételezi – az egyetlen üdítő kivétel a nőgyógyász, ő véletlenül (?) „she” lett.

Mi lehet ennek az oka?

Hasonlóan öngerjesztő folyamatként működik a szöveg- és képkeresés előítéletessége. Pl. ha beírjuk, hogy „híres festők”, az első eredmények közt tíz férfi mellett egyedül Frida Kahlo képviseli a nőket. „A program azokat a találatokat hozza előre, amelyekre korábban a legtöbben kerestek” – mondja Heal Edina, az Egyenlítő Alapítvány létrehozója, a Google korábbi magyarországi vezetője. „A felhasználó rákattint a megjelenő férfi festőkre, és ezzel azt tanítja a rendszernek, hogy ők azok, akikre kíváncsi volt - a program a következő kereséseknél is ezeket fogja előresorolni. Ezzel pedig elveszi a lehetőséget a kevésbé tájékozott – és a találatok láttán nem gyanakvó – felhasználótól, hogy eszébe jusson, hogy egy festő nem csak férfi, és nem csak fehér bőrű lehet. Ez a 22-es csapdája: az algoritmus felerősíti a múltat, ami a (gazdag, fehér) férfiaké.”

Az algoritmusok szexista torzítása miatt nemcsak a műveltségünk szenvedhet csorbát, de a munkakeresési esélyünk és a fizetésünk is
hívja fel a figyelmet a szakember

„A mesterséges intelligenciát ma már számos cég használja adatszűrésre. Egyre több helyen a jelentkezéseket is gépekkel nézetik át, többségüket emberi szem nem is látja. Ezt az Amazonnál vezették be elsőként 2014-ben. Egy év múlva jöttek rá, hogy a rendszer diszkriminálja a nőket. Korábban ugyanis a meghirdetett pozíciókban több férfi dolgozott, és ebből a program azt »tanulta meg«, hogy a férfi jelentkező értékesebb.” Az álláskereső szájtokról is kiderült, hogy a vezető pozíciókat, a jobban fizető állásokat gyakrabban ajánlják férfi felhasználóknak – csak mert korábban férfiak töltötték be ezeket a pozíciókat.

Egyes bankok a hitelképesség szűrésére is bevezették az algoritmusokat, egészen abszurd eredményekkel: nemrég nagy botrány kerekedett abból, hogy azonos vagyoni helyzetű emberek (köztük közös kasszán levő házaspárok) közül a férfiaknak az Apple Card tízszer (vagy akár hússzor) magasabb kreditlimitet ajánl. Sokatmondó, hogy egy magyar informatikai portál ezt a hírt a következő címmel tálalta: „Áll a bál, mert nem engedi a pénzszórást az asszonyoknak az Apple Card.” (Vajon ezt a címet is mesterséges intelligencia írta, vagy itt csak a hagyományos emberi diszkrimináció ékes példáját látjuk?)

Mindezek ellenére a mesterséges intelligencia előretörése megállíthatatlan. Folynak a kutatások a további alkalmazási lehetőségek: pl. cégvezetők kinevezése, bűnüldözés, bírósági ítéletek, orvosi diagnosztika terén is. Ez utóbbi terület fokozott odafigyelést igényel: „A szexista torzítás különösen veszélyes, ha egy olyan betegséget próbálunk diagnosztizálni, amelynek más a lefolyása férfiaknál és nőknél. Ha az algoritmus olyan adathalmazt kap, amelyben a betegek nagyobb része férfi, akkor előfordulhat, hogy a férfiakra jellemző tünetekre fog rátanulni, hacsak nem adjuk meg neki azt a kontextust, hogy az adott kórtörténet milyen nemű emberhez tartozik” – tájékoztat Ördög Ivett. A bűnüldözési alkalmazáson is bőven van még mit csiszolni. „A képfelismerő algoritmusokról – pl. amelyek azt szűrik, hogy az adott személy körözés alatt áll-e, vagy büntetett előéletű-e – kiderült, hogy míg a fehér férfiak arcát 100%-os pontossággal felismerik, a színes bőrű nők esetében csupán 35% ez az arány – hívja fel a figyelmet Heal Edina. – Azaz fekete nőként jóval nagyobb az esélyed, hogy összekevernek egy bűnözővel!”

Mi ennek az oka?

„Az, hogy a programokat író mérnökök nem helyeztek el a mintául szolgáló adathalmazban elég nőt, illetve fekete bőrű embert ábrázoló fotót – mutat rá Heal. – A program csak adatból merít, ha rossz vagy torz az adathalmaz, az eredmény is azt fogja tükrözni. Ezt a részrehajlást felül kell írni, pl. azzal, hogy olyan kvóták szerint adjuk be a programnak az adatokat, amelyek – ha nem is a fele-fele arányt, de – legalább a jelenlegi valóságot tükrözik. Az is része a problémának, hogy jelenleg a technológia területén mindössze 17 százaléknyi nő dolgozik, a mesterséges intelligencia területén pedig még alacsonyabb, 14 százalék ez az arány. Így aztán a legtöbb mérnöki csapatban fel sem merül, hogy a világ fele nőkből áll. Erre a gyógyír a diverzifikált munkaerő lenne, amelyen belül a nőknek legalább az érdekérvényesítéshez szükséges kritikus tömeget, a 30 százalékot el kellene érniük.”

Nemcsak az input, de az output felől is lehet közelíteni a problémát: egy sampongyártó cég nemrég egy S.H.E. nevű bővítménnyel állt elő, amely a megjelenő találatokat igyekszik szűrni, illetve sorrendjüket módosítani a nemi egyenlőség javára. „Ez a pinkwashing klasszikus példája, tanítani kellene!” – vélekedik Ördög Ivett. (Azaz látszólag a nők és/vagy az LMBTQ emberek ügyét szolgáló, valójában profitszerzésre irányuló marketingstratégiáról van szó.) „Azon túl, hogy csak néhány keresőszóra oldja meg a problémát az eredmények sorrendjének módosítása, nyilvánvaló célja a céggel kapcsolatos találatok előresorolása. Ráadásul csak azok látják a módosított sorrendet, akik hajlandók telepíteni a bővítményt, és elsősorban nem nekik lenne szükségük arra, hogy kicsit változzon a világról alkotott képük. A hosszú távú megoldás fontos része szerintem – a női és kisebbségi tech munkatársak számának növelése mellett – az, hogy több minőségi tartalmat kell létrehozni marginalizált csoportokról, köztük jelentős teljesítményt nyújtó nőkről.”

Már az emberi jogi szervezetek is felfigyeltek a problémára. „Az Access Now és az Amnesty International 2018-ban kiadták a Torontói Nyilatkozatot – mondja Heal –, amelynek aláírói elkötelezik magukat, hogy olyan megoldásokat fejlesszenek, amelyekkel megakadályozzák, hogy algoritmusaik újratermeljék a társadalmi egyenlőtlenségeket. Cégek és kormányok is csatlakozhatnak, de pl. az Egyesült Államok a közeljövőben nemigen fog: a Trump-adminisztráció szerint hagyni kell a piacot érvényesülni. A piacot márpedig nem érdekli a társadalmi egyenlőség – amíg nem lát benne pénzt. Egyelőre kevés cég ismerte fel, pedig kutatások igazolták, hogy a diverz munkaerő gazdasági előnyhöz is vezet.”

Kisebb változások azért már észlelhetők. Pár éve például, ha beírtuk a képkeresőbe, hogy CEO (chief executive officer = vezérigazgató), kizárólag fehér férfiakat adott ki, most viszont már az első találatok közt szerepel nő, illetve ázsiai férfi is. A korábban csak fiatal, fehér nőket eredményező „woman” keresőszóra is most már az elsők közt megjelenik fekete, indiai, amerikai őslakos, muszlim és transz nő is.

„Minden érintett igazgató azt állítja, hogy törekszik a változásra, hiszen ez a jövő – mondja Heal. – A változások azonban egyelőre túl lassúak. Úgy látom, hogy a cégek nem motiválják megfelelően a dolgozóikat a részrehajlások kiiktatására: ezt a törekvést igazságharcosok hobbijának tekintik csupán.” Valószínűleg az segítene, ha a kérdést nemcsak informatikai, hanem össztársadalmi szinten kezelnénk. Igyekezzünk nemcsak az algoritmusokat, hanem saját magunkat is megszabadítani az előítéletektől.

„A tanuló algoritmusok direkt úgy készülnek, hogy a legkisebb eltérést is észleljék – mondja Ördög Ivett matematikus, szoftverfejlesztő. – Vegyük például azt az esetet, hogy az algoritmusnak egy ember nemét kell megtippelnie a szakmája és néhány egyéb adat alapján, és akkor jutalmazzuk, ha helyesen tippelt. Ekkor, ha az adott mintában a sebészek 55%-a férfi és 45%-a nő, és semmilyen más információ nincs birtokában a személyről, ami ezt befolyásolná, az algoritmus következetesen férfit fog tippelni, nem pedig 55%-ban férfit, 45%-ban nőt. Ebből következően még ha az adott szakmában 51% a férfi és 49% a nő, akkor is férfinak fogja tippelni a nemet, így felerősítve a férfias szakma sztereotípiáját. Mindig az akár csak egy picivel esélyesebb változatot fogja alkalmazni. Az algoritmus ráadásul mondatonként fordít, nem észleli a kontextust, így nem veszi figyelembe, ha az előző mondatban kiderült, hogy a sebészt Erikának hívják.” Kipróbálom, s lőn: „Erika is a woman. He’s a surgeon” – makacskodik a fordítóprogram. „A program nem érti, hogy mi az a névmás – ezért nem járható út, hogy he/she-t írjon ilyen esetben. Azt sem tudja, hogy az Erika női név. Egyedül azt veszi figyelembe, hogy a korpuszban gyakrabban szerepelt a sebész szó együtt a ‘he’ névmással, mint a ‘she’ vagy a ‘they’ névmásokkal.”