Jā, mākslīgais intelekts var būt rasistisks

Whakamātauhia Ta Maatau Taputapu Mo Te Whakakore I Nga Raru

Aleksandrija Okasio-Kortesa saka, ka mākslīgais intelekts var būt neobjektīvs. Viņai ir taisnība.

Getty Images/EyeEm

Tālrunī atveriet fotoattēlu lietotni un meklējiet suni, un tiks parādīti visi jūsu suņu attēli. Tas nebija viegls varoņdarbs. Jūsu tālrunis zina, kā izskatās suns.

Šis mūsdienu brīnums ir mašīnmācības, mākslīgā intelekta veida, rezultāts. Tādas programmas kā šī pārņem miljoniem datu un veido korelācijas un prognozes par pasauli. Viņu pievilcība ir milzīga: mašīnas var izmantot aukstus, cietus datus, lai pieņemtu lēmumus, kas dažkārt ir precīzāki nekā cilvēka.

Bet mašīnmācībai ir ēnas puse. Ja to neizmanto pareizi, tas var pieņemt lēmumus, kas iemūžina sabiedrībā pastāvošos rasu aizspriedumus. Tas nav tāpēc, ka datori ir rasistiski. Tas ir tāpēc, ka viņi mācās, skatoties uz pasauli tādu, kāda tā ir, nevis tādu, kādai tai vajadzētu būt.

Nesen jaunievēlētā pārstāve Aleksandrija Okasio-Kortesa (D-NY) to norādīja savā paziņojumā. diskusija Mārtiņa Lutera Kinga jaunākā dienas pasākumā Ņujorkā.

Algoritmus joprojām veido cilvēki, un šie algoritmi joprojām ir piesaistīti cilvēka pamatpieņēmumiem, viņa teica rakstniekam Ta-Nehisi Koatesam ikgadējā. MLK Now pasākums . Tie ir tikai automatizēti pieņēmumi. Un, ja jūs nelabojat novirzi, jūs vienkārši automatizējat novirzi.

Nākamajā dienā konservatīvā vietne Daily Wire to izsmēja komentāri .

Bet Okasio-Kortesam ir taisnība, un ir vērts pārdomāt, kāpēc.

Ja mēs nebūsim uzmanīgi, AI saglabās neobjektivitāti mūsu pasaulē. Datori iemācās būt rasistiskiem, seksistiskiem un aizspriedumiem līdzīgi kā bērns, kā datorzinātnieks Eilina Kaliskana , tagad Džordža Vašingtona universitātē, man teica 2017. gada intervijā. Datori mācās no saviem radītājiem — mums.

Daudzi cilvēki domā, ka mašīnas nav neobjektīvas, sacīja Kaliskans, kurš tajā laikā strādāja Prinstonā. Bet mašīnas ir apmācītas uz cilvēku datiem. Un cilvēki ir neobjektīvi.

Mēs domājam, ka mākslīgais intelekts ir objektīvs. Bieži vien tā nav.

Gandrīz visas jaunās patērētāju tehnoloģijas kaut kādā veidā izmanto mašīnmācīšanos. Izmantojiet Google tulkotāju: neviens nedeva programmatūrai iemācīties tulkot grieķu valodu franču valodā un pēc tam angļu valodā. Tā ķemmēja cauri neskaitāmām teksta tēmām un iemācījās pati. Citos gadījumos mašīnmācības programmas prognozē, kuri CV, visticamāk, dos veiksmīgus darba kandidātus vai kā pacients reaģēs uz konkrētām zālēm.

Mašīnmācība ir programma, kas izsijā miljardiem datu punktu, lai atrisinātu problēmas (piemēram, vai jūs varat identificēt fotoattēlā redzamo dzīvnieku), taču tā neļauj vienmēr paskaidrojiet tas ir atrisinājis problēmu. Un kļūst arvien skaidrāks, ka šīs programmas var attīstīt aizspriedumus un stereotipus mums nepamanot.

2016. gadā ProPublica publicēts Mašīnmācīšanās programmas izmeklēšana, ko tiesas izmanto, lai prognozētu, kurš, iespējams, izdarīs citu noziegumu pēc rezervācijas. Žurnālisti atklāja, ka programmatūra melnajiem cilvēkiem ir pakļauti augstākam riskam nekā baltajiem.

Tādi rādītāji kā šis — zināmi kā riska novērtējumi — arvien biežāk tiek izplatīti tiesas zālēs visā valstī, ProPublica paskaidroja . Tos izmanto, lai pieņemtu lēmumus par to, kurš var tikt atbrīvots visos krimināltiesību sistēmas posmos, sākot no ķīlas summu piešķiršanas … līdz pat vēl svarīgākiem lēmumiem par apsūdzēto brīvību.

Programma uzzināja par to, kurš, visticamāk, nonāks cietumā, izmantojot reālos ieslodzījuma datus. Un vēsturiski reālās pasaules krimināltiesību sistēma ir bijusi negodīga pret melnādainajiem amerikāņiem.

Šis stāsts atklāj dziļu ironiju par mašīnmācību. Šo sistēmu pievilcība ir tāda, ka tās var pieņemt objektīvus lēmumus bez cilvēka aizspriedumiem. Ja datori varētu precīzi paredzēt, kuri apsūdzētie varētu pastrādāt jaunus noziegumus, krimināltiesību sistēma varētu būt godīgāka un selektīvāka attiecībā uz to, kurš un cik ilgi ir ieslodzīts, rakstīja ProPublica.

Bet notika tas, ka mašīnmācības programmas plašā mērogā saglabāja mūsu aizspriedumus. Tātad tā vietā, lai tiesnesis būtu aizspriedumains pret afroamerikāņiem, tas bija robots.

Citi gadījumi ir neskaidrāki. Ķīnā pētnieki pārī sejas atpazīšanas tehnoloģija ar mašīnmācīšanos, lai apskatītu autovadītāja apliecības fotoattēlus un paredzētu, kurš ir noziedznieks. Tā precizitāte bija 89,5 procenti.

Daudzi eksperti bija ārkārtīgi skeptiski pret atklājumiem . Kurus sejas vaibstus šī programma izmantoja analīzei? Vai tieslietu sistēmā tiek diskriminētas atsevišķu etnisko grupu fiziskās īpašības? Vai tas var uztvert zemas sociālekonomiskās audzināšanas pazīmes atstāt paliekošus iespaidus uz mūsu sejām?

To var būt grūti zināt. (Baišāk: tiek saukts viens starta uzņēmums Faception kas apgalvo, ka var atklāt teroristus vai pedofilus, tikai skatoties uz sejām.)

Jums ir ārkārtīgi jaudīgi algoritmi, taču tikpat svarīgi ir tas, kādus datus jūs ievadāt algoritmos, lai iemācītu viņiem diskriminēt, Prinstonas psihologs un sejas uztveres eksperts Aleksandrs Todorovs man teica 2017. gada intervijā, apspriežot strīdīgs papīrs par izmantojot mašīnmācīšanos, lai prognozētu seksuālo orientāciju no sejām. Ja barosi ar sūdiem, tad beigās izspļaus sūdus.

Tādi stāsti kā ProPublica izmeklēšana lika Caliskanam izpētīt šo problēmu. Kā sieviete datorzinātniece, kas parasti bija vienīgā sieviete savās augstskolas klasēs, viņa ir jutīga pret šo tēmu.

Viņa ir redzējusi neobjektivitāti mašīnmācībā bieži vien smalkos veidos, piemēram, pakalpojumā Google tulkotājs.

Turku valodā, kas ir viena no viņas dzimtajām valodām, nav dzimuma vietniekvārdu. Taču, kad viņa izmanto Google tulkotāju turku frāzēm, tas vienmēr izpaužas kā “viņš ir ārsts” dzimtes valodā, viņa teica. Turcijas teikumā nebija norādīts, vai ārsts ir vīrietis vai sieviete. Dators vienkārši uzskatīja, ka, ja jūs runājat par ārstu, tas ir vīrietis.

Kā roboti mācās netiešu neobjektivitāti

2017. gadā Caliskan un kolēģi publicēts papīrs iekšā Zinātne ja dators mācās angļu valodu, tas kļūst aizspriedums pret melnādainajiem amerikāņiem un sievietēm.

Būtībā viņi izmantoja parastu mašīnmācīšanās programmu, lai pārmeklētu internetu, aplūkotu 840 miljardus vārdu un iemācītu sev šo vārdu definīcijas. Programma to panāk, meklējot, cik bieži noteikti vārdi parādās vienā teikumā. Ņem vārdu pudele. Dators sāk saprast šī vārda nozīmi, pamanot, ka tas biežāk tiek lietots līdzās vārdam konteiners un blakus vārdiem, kas apzīmē šķidrumus, piemēram, ūdeni vai pienu.

Šī ideja mācīt robotiem angļu valodu patiesībā nāk no kognitīvās zinātnes un tās izpratnes par to, kā bērni mācās valodu. Tas, cik bieži divi vārdi parādās kopā, ir pirmais pavediens, ko mēs iegūstam, atšifrējot to nozīmi.

Kad dators bija uzkrājis savu vārdu krājumu, Caliskan veica to, izmantojot netiešās asociācijas testa versiju.

Cilvēkiem IAT ir paredzēts, lai slēptu smalkas novirzes smadzenēs, redzot, cik ilgs laiks nepieciešams, lai cilvēki sasaistītu vārdus. Persona var ātri savienot vārdus vīrietis un inženieris. Bet, ja cilvēks atpaliek no sievietes un inženiera asociēšanas, tas liecina, ka šie divi termini prātā nav cieši saistīti, kas nozīmē neobjektivitāti.

Šeit Caliskan tā vietā, lai aplūkotu nobīdes laiku, aplūkoja, cik cieši dators domāja, ka divi termini ir saistīti. Viņa atklāja, ka afroamerikāņu vārdi programmā bija mazāk saistīti ar vārdu patīkami nekā baltie vārdi. Un sieviešu vārdi bija vairāk saistīti ar vārdiem, kas saistīti ar ģimeni, nevis vīriešu vārdiem. (Ir dažas uzticamības problēmas, kas saistītas ar IAT cilvēkiem, un jūs varat to izdarīt lasiet par to šeit . Dīvainā veidā IAT varētu būt labāk piemērots lietošanai datorprogrammās nekā cilvēkiem, jo ​​cilvēki uz tā jautājumiem atbild nekonsekventi, savukārt dators katru reizi sniegs vienu un to pašu atbildi.)

Tāpat kā bērns, dators veido savu vārdu krājumu, ņemot vērā to, cik bieži termini parādās kopā. Internetā afroamerikāņu vārdus, visticamāk, ieskauj vārdi, kas norāda uz nepatīkamību. Tas nav tāpēc, ka afroamerikāņi ir nepatīkami. Tas ir tāpēc, ka cilvēki internetā saka šausmīgas lietas. Un tas atstāj iespaidu uz mūsu jauno AI.

Tā ir tik liela problēma, kā jūs domājat.

Rasistiskā, seksistiskā AI sekas

Kaliskans sacīja, ka arvien biežāk darba meklētāji paļaujas uz mašīnmācīšanās programmām, lai iegūtu pirmo caurlaidi CV. Un, ja tās netiek pārbaudītas, programmas var mācīties un rīkoties saskaņā ar dzimumu stereotipiem, pieņemot lēmumus.

Pieņemsim, ka vīrietis pretendē uz medmāsas vietu; Viņš var tikt uzskatīts par mazāk piemērotu šim amatam, ja iekārta tikai pieņem savus lēmumus, viņa sacīja. Un tas varētu attiekties uz sievieti, kas piesakās programmatūras izstrādātāja vai programmētāja amatam. … Gandrīz visas šīs programmas nav atvērtā pirmkoda, un mēs nevaram redzēt, kas tieši notiek. Tāpēc mums ir liela atbildība par mēģinājumu atklāt, vai viņi ir negodīgi vai neobjektīvi.

Un tas būs izaicinājums nākotnē. AI jau tagad iekļūst veselības aprūpes sistēmā, palīdzot ārstiem atrast pareizo ārstēšanas kursu saviem pacientiem. (Ir agrīni pētījumi par to, vai tas var palīdzēt prognozēt garīgās veselības krīzes .)

Bet arī veselības dati ir piepildīti ar vēsturisku neobjektivitāti. Jau sen zināms, ka sievietes saņem operācija ir zemāka nekā vīriešiem . Viens no iemesliem ir tas, ka sievietēm kā primārajām aprūpētājām pēc operācijas ir mazāk cilvēku, kas par viņām rūpējas.

Vai tad mākslīgais intelekts varētu ieteikt sievietēm operāciju ar mazāku ātrumu? Tas ir kaut kas, no kā jāuzmanās.

Tātad šīs programmas ir bezjēdzīgas?

Neizbēgami mašīnmācīšanās programmas saskarsies ar vēsturiskiem modeļiem, kas atspoguļo rasu vai dzimuma aizspriedumus. Un var būt grūti novilkt robežu starp neobjektivitāti un to, kas ir tikai fakts par pasauli.

Mašīnmācīšanās programmas ņems vērā faktu, ka lielākā daļa medmāsu visā vēsturē ir bijušas sievietes. Viņi sapratīs, ka lielākā daļa datorprogrammētāju ir vīrieši. Mēs neiesakām jums noņemt šo informāciju, sacīja Kaliskans. Tas faktiski var pilnībā sabojāt programmatūru.

Tā vietā Caliskan uzskata, ka ir vajadzīgi vairāk drošības pasākumu. Cilvēkiem, kuri izmanto šīs programmas, pastāvīgi jājautā: Kāpēc es saņemu šos rezultātus? un pārbaudiet, vai šo programmu izvadē nav novirzes. Viņiem rūpīgi jāpārdomā, vai viņu apkopotie dati atspoguļo vēsturiskos aizspriedumus. Caliskan atzīst, ka labākā prakse, kā apkarot neobjektivitāti AI, joprojām tiek izstrādāta. Viņa teica, ka tam ir nepieciešama ilgtermiņa pētniecības programma datorzinātniekiem, ētiķiem, sociologiem un psihologiem.

Bet vismaz cilvēkiem, kas izmanto šīs programmas, ir jāapzinās šīs problēmas, nevis jāuzskata par pašsaprotamu, ka dators var radīt mazāk neobjektīvus rezultātus nekā cilvēks.

Un kopumā ir svarīgi atcerēties: AI mācās par to, kā pasaule ir bijis. Tas uztver status quo tendences. Tas nezina, kā pasaule vajadzētu būt. Tas ir cilvēku ziņā.