Labklājības ministrijas dati liecina, ka teju 40% Latvijas iedzīvotāju ir saskārušies ar kādu no diskriminācijas veidiem – dzimuma, vecuma, reliģiskās piederības u.c. Šie rādītāji ir ļoti augsti, turklāt, digitālo tehnoloģiju attīstība ir radījusi arī situācijas, kad arī mākslīgais intelekts (MI) diskriminē cilvēkus. 

MI mācās no cilvēku aizspriedumiem un vēsturiskajiem lēmumiem, rezultātā pieņemot diskriminējošus lēmumus, piemēram, darbā pieņemšanas, kredītu piešķiršanas vai pat veselības aprūpes jomās. To dēvē par algoritmisko diskrimināciju. 

MI diskriminācija izpaužas dažādās jomās 

Saskaņā ar definīciju, diskriminācija ir nepamatota atšķirīga attieksme kāda aizliegta pamata dēļ, piemēram, dzimuma, ādas krāsas, vecuma, invaliditātes, reliģiskās vai politiskās pārliecības, sociālās izcelsmes vai seksuālās orientācijas. Būtībā tas nozīmē, ka konkrētiem cilvēkiem vai cilvēku grupām tiek radītas nelabvēlīgas situācijas bez objektīva pamata. Mūsdienās to dara arī MI un šī diskriminācija var izpausties dažādās jomās – darba tirgū, veselības aprūpē, satiksmes infrastruktūrā, kredītspējas vērtēšanā u.tml. 

Personāla atlases sistēmas, kas diskriminē sievietes 

MI mācās no datiem, ko esam radījuši mēs, cilvēki, – no vēsturiskiem ierakstiem, iepriekšējiem lēmumiem un citas informācijas. Ja neizvērtējam šos datus, MI turpina mūsu aizspriedumus. To spilgti apliecina vairāki starptautiski piemēri – kompānija “Amazon” izmantoja MI risinājumu darbinieku atlasei, taču algoritms, analizējot CV, sāka noraidīt sievietes, jo iepriekš kompānijā vadības un tehniskajās pozīcijās pārsvarā tika pieņemti vīrieši. Sistēmai bija radies priekšstats, ka vīrietis būs piemērotāks kandidāts, un šis kļūdainais pieņēmums noveda pie sieviešu diskriminācijas. 

Saziņas robots, kas mācās no cilvēku naida runas 

Savukārt kompānijas “Microsoft” saziņas robots (čatbots) “Tay”, kas tika radīts kā eksperimentāls MI rīks, nepilnas diennakts laikā kļuva rasistisks, seksistisks un antisemītisks. Čatbots darbojās interneta vidē un mācījās no cilvēku izteikumiem un sarunām, burtiski pārņemot mūsu sliktākos paradumus. Vēl viens zīmīgs piemērs ir “Google” foto lietotne, kas kļūdaini identificēja melnādainus cilvēkus kā gorillas – vienkārši tāpēc, ka algoritms netika apmācīts ar dažādu etnisko grupu attēliem. 

MI nedrīkst būt mūsu sliktāko paradumu turpinātājs

Šie piemēri apliecina, cik viegli MI var kļūt aizspriedumains un diskriminējošs, un ir skaidrs, ka ar tehniskajiem risinājumiem vien nepietiek. Ir nepieciešamas arī ētiskas vadlīnijas un skaidra vērtību sistēma. Mums jādomā “kā vajadzētu būt”, nevis “kā ir bijis”, un jārada vide, kurā MI nav mūsu sliktāko paradumu turpinātājs, bet instruments taisnīgai un iekļaujošai sabiedrībai. ANO Vispārējā cilvēktiesību deklarācija nosaka, ka visi cilvēki ir vienlīdzīgi un visiem ir tiesības uz vienādu aizsardzību pret jebkādu diskrimināciju. Šim principam ir jābūt spēkā arī situācijām, kad lēmumu pieņemšanā ir iesaistīts MI. 

Gala lēmums ir cilvēku rokās 

Situācijai ir risinājumi, piemēram, MI īstenoto diskrimināciju var samazināt ar atbilstošiem likumiem un noteiktumiem. Eiropas Savienības Mākslīgā intelekta akts, kas ir saistošs arī Latvijai, pievērš uzmanību arī šai tēmai un nosaka, ka MI risinājumu pamatā jābūt iekļaujošiem datiem. Tas nozīmē, ka algoritmi ir jāpārbauda, jāveic risku izvērtēšana u.tml., tomēr tas negarantē 100% izvairīšanos no diskriminācijas riska. Arī tad, ja MI sniegtā informācija būs objektīva, gala lēmums daudzos jautājumos joprojām paliek mūsu, cilvēku, rokās – un tur saglabājas diskriminācijas risks. Ir būtiski ne tikai izstrādāt drošus un ētiski pārdomātus algoritmus, bet arī stiprināt cilvēku atbildību un iekļaujošu vidi sabiedrībā un organizācijās. 

Risinājumi MI diskriminācijas mazināšanai 

Lai mazinātu diskriminācijas riskus, MI rīku izstrādē un lietošanā nepieciešams ievērot vairākus aspektus - datiem ir jāatspoguļo sabiedrība tāda, kādai tai vajadzētu būt, nevis tāda, kāda tā bijusi; lēmumiem jābūt caurspīdīgiem, pamatotiem, bet algoritmu ietekmei – izsekojamai un atbildīgai. Uzņēmumiem un iestādēm ieteicams izveidot ētikas vadlīnijas un regulāri jāpārbauda, vai izmantotie MI risinājumi darbojas godīgi un vienlīdzīgi attiecībā pret visām sabiedrības grupām. Svarīga ir arī sabiedrības izglītošana par datu ētiku un vienlīdzību kopumā. Tehnoloģijas pašas par sevi nav ne labas, ne sliktas - tās  atspoguļo mūsu izvēles. Un tieši mēs – cilvēki – esam tie, kuri var izšķirt, vai MI palīdzēs radīt taisnīgāku sabiedrību, vai tikai nostiprinās netaisnību un aizspriedumus vēl spēcīgā formā. Izvēle ir mūsu rokās.