Структурно сексистичко општество, наплив на информации и информации со родов јаз влегуваат во бар. Влегуваат во канцеларијата, железничката станица, вашиот дом, лекарската ординација, патиштата и филмовите. Списокот не завршува тука, но завршува капацитетот на овој автор да ги спомене сите простори каде што родовите предрасуди се инфилтрираат во нашите животи.
Во општество кое во голема мера станува зависно од напливот на информации, вештачката интелигенција и системите за машинско учење, клучно е да се осигураме дека овие податоци се ослободени од каква било културна или човечка пристрасност. За жал, тоа речиси никогаш не е случајот. Како што вели Perez (2019):
[…] Свет кој сѐ повеќе се потпира на информации и им робува. Наплив на информации кој се вози на Големи Вистини скроени од Големи Алгоритми, со користење на Големи Компјутери. Но, кога напливот на информации станува корупиран од големите тишини, вистините што ги добивате се во најдобар случај полувистини. За жените, многу често, тие воопшто не се вистинити (стр. XII).
Јазикот е камен-темелник на општеството, а во современиот свет, еден од најчесто користените јазици е оној на алгоритмите. Тие продираат во нашите животи на различни начини – од предлози што тоа што да гледаме следно до автобуски распореди; алгоритмите се користат сè повеќе, наводно за да го „подобрат“ животот на современите луѓе. Како и да е, алгоритмите се засноваат на податоци, а во моментов постои голем јаз во податоците – родов јаз (Perez, 2019). Има денови кога се плашам дека овој родов јаз е доволно голем за да нè проголта цели. Овој јаз во податоците обично не е злонамерен, но сепак постои. Тој потекнува од различни извори – од општоприфатениот машки модел како стандарден начин на размислување до начинот на кој зборуваме и како ги уредуваме нашите заедници. Со фалични основи, тешко да дојдеме до правични социјални контексти или компјутерски јазици.
Родовата пристрасност во алгоритмите значи дека мажите добиваат повисоки лимити на кредитните картички од финансиските институции, нивните биографии и резимеа влегуваат во потесен избор во работните апликации, па дури може и да добијат предност при вакцинација (Smith and Rustagi, 2021). Родовата пристрасност значи дека сите информации до кои имаме пристап на интернет можат да содржат сексизам и предрасуди. На пример, во една студија направена од Википедија, најголемата светска онлајн енциклопедија, откриено е дека само 9% од уредниците се жени [1].
Овој искривен поглед на светот, кој ги претпоставува мажите како универзален стандард и има тенденција да ги огради жените, има своја цена. Во Индија, страниците на Википедија се поделени на „список на индиски писатели“ и „список на индиски писателки“. Одредени страници на Википедија посветени на жени во СТЕМ полето [2] се полни детали за нивниот интимен живот, славата на нивните сопрузи и тривијални информации кои нема да ги најдете на страниците напишани за нивните колеги. Како што ќе напише Симон де Бовоар, „претставувањето на светот, како и самиот свет, е дело на мажите; тие го опишуваат од своја гледна точка, која ја мешаат со апсолутната вистина“.
Во свет кој се повикува на технологијата во секоја животна сфера, за нас е од суштинско значење да направиме чекор назад и да истражиме кој ја создава оваа технологија, кој има пристап до неа и кој е засегнат од неа. Една од главните причини за пристрасноста и значителниот родов јаз во податоците претставува дигиталната родова поделба (Smith and Rustagi, 2021). Тука е и недостатокот на соодветна застапеност на жените во просторите каде што се развиваат овие алгоритми – жените сочинуваат само 22% од професионалците во областа на науката за податоци и вештачката интелигенција. Отсуството на жените од овие полиња често се оправдува како „објективен одраз на заслугите“, а не како случај на основни предрасуди и нефер структури.
Гугл Транслејт и Големото Родување
Да го земеме примерот со Google Translate. Претежно корисна алатка која работи на основен алгоритам што ги црпи преводните решенија според фреквентноста на нивната употреба во јазикот. Едноставно кажано, работи на база на достапни информации. За жал, овие информации се значително пристрасни. На пример, некои јазици како турскиот јазик не користат родови заменки. Нема „тој“ или „таа“, само „о“. Но, кога ќе впишете „o bir asci“ („тие се готвач“ *се мисли на родово неутралното they во англискиот јазик) и ќе побарате превод на англиски, добивата „таа е готвач(ка)“ (she is a cook), додека фразите со „инженер“ и „доктор“ се претвораат во „тој е инженер/доктор“ (he is an engineer/doctor).
Овој навидум едноставен алгоритам не само што им назначува род на родово-неутралните турски реченици, туку и додава сексизам во миксот поради зачестеноста во употребата – поголемиот дел од интернетот користи заменки од машки род за зборови како „астронаут“ или „доктор“, а женски заменки за „готвач(ка)“ и „медицински сестри“.
Ова е загрижувачи бидејќи важно е да ја препознаеме пристрасноста која суптилно ги дефинира и обликува нашите интеракции со светот. Кај жените е помала веројатноста да аплицираат за работни места кои се сметаат за „машки“. Оваа позиција и класификација доаѓаат од различни места. Нашиот јазик е едно од главните. Како што вели Nayantara Dutta, „јазикот на многу начини ги рефлектира и создава родовите нееднаквости што постојат во општеството“.
Сепак, исто така е важно да се напомене дека постои надеж. Откако беше посочена оваа родова нееднаквост, Google ги направи потребните модификации и објави ажурирана родово „поеднаква“ верзија. Оваа нова верзија покажува понијансирано разбирање на родовите разлики и нуди неколку преводни решенија. Вгнездена во аголот на светската мрежа, оваа победа за многумина помина незабележана. Но, сепак е победа. Победа која го поддржува аргументот дека алгоритмите не се сексистички, туку луѓето. Тоа исто така значи дека нашите јазици – особено научните јазици, алгоритмите и кодовите – можат да се менуваат, модифицираат и развиваат земајќи го предвид родовиот јаз.
Што може да се стори?
Со оглед на природата на авторски заштитените системи за машинско учење, процесите што ги користат алгоритмите често се непроѕирни. Тие не им даваат на своите корисници никаков увид во процесот на донесување одлуки. Потранспарентен (или проѕирен) пристап би можел да им помогне на корисниците да укажат на проблемите и да помогнат да се поправат грешките (bugs).
Истражувањата сугерираат дека пристрасноста во алгоритмите би можела да се намали доколку на нив работи разновидна демографска група. Со зголемување на пристапот до СТЕМ полињата, намалување на бариерите и вклучување на жените од различни оптешствени класи, економски и социјални локации може да им овозможи на алгоритмите да создадат поправеден свет. Вклучувањето на феминистички податоци и ревидирањето за постоечките алгоритми на начин на кој би ја земале предвид родовата перспектива, исто така може да помогне. Како што споменавме претходно, мораме да запомниме дека научниот јазик е сексистички, но исто така може да се уредува и модифицира за да им служи на потребите на општеството како целина, а не само на мажите во него.
Извор: Outlook India
[1] Истражувањето е направено во 2011 година. Според последните неформални информации, овој процент во моментот изнесува 15-20%.
[2] СТЕМ (STEM) е акроним на англиски јазик што ги означува следните дисциплини: наука (Science), технологија (Technology), инженерство (Engineering) и математика (Mathematics).