Kas ir mākslīgā intelekta aizspriedumi?

Kas ir mākslīgā intelekta aizspriedumi?

Mākslīgais intelekts ir visur — klusi šķiro, vērtē un iesaka. Tas ir ērti… līdz brīdim, kad tas dažas grupas pabīda uz priekšu un citas atstāj aiz muguras. Ja esat domājuši, kas ir mākslīgā intelekta aizspriedumi , kāpēc tie parādās pat vislabāk pārdotajos modeļos un kā tos samazināt, neietekmējot veiktspēju, šī rokasgrāmata ir domāta jums.

Raksti, kurus jūs varētu vēlēties izlasīt pēc šī raksta:

🔗 Ko nozīmē GPT?
GPT nosaukuma un izcelsmes skaidrojums vienkāršā angļu valodā.

🔗 Kas ir paredzošā mākslīgā intelekta
Kā prognozējošie modeļi prognozē rezultātus, izmantojot vēsturiskus un tiešraides datus.

🔗 Kas ir atvērtā koda mākslīgais intelekts
Definīcija, galvenās priekšrocības, izaicinājumi, licences un projektu piemēri.

🔗 Kā integrēt mākslīgo intelektu savā uzņēmumā
Soli pa solim sniegta ceļvede, rīki, darbplūsmas un izmaiņu pārvaldības pamati.


Īsa definīcija: kas ir mākslīgā intelekta aizspriedumi?

Mākslīgā intelekta neobjektivitāte ir tad, kad mākslīgā intelekta sistēmas rezultāti sistemātiski dod priekšroku vai nostāda neizdevīgā stāvoklī noteiktus cilvēkus vai grupas. Tā bieži rodas no nelīdzsvarotiem datiem, šaurām mērījumu izvēlēm vai plašāka konteksta, kurā sistēma ir veidota un izmantota. Neobjektivitāte ne vienmēr ir ļaunprātīga, taču tā var ātri radīt kaitējumu, ja to nekontrolē. [1]

Noderīga atšķirība: aizspriedumi ir lēmumu pieņemšanas neobjektivitāte, savukārt diskriminācija ir kaitīgā ietekme, ko neobjektivitāte var radīt pasaulē. Ne vienmēr var novērst visus aizspriedumus, taču tie ir jāpārvalda, lai tie neradītu netaisnīgus rezultātus. [2]


Kāpēc aizspriedumu izpratne patiesībā padara jūs labāku 💡

Dīvains viedoklis, vai ne? Bet zinot, kas ir mākslīgā intelekta aizspriedumi , jūs:

  • Labāk dizainā — agrāk pamanīsiet trauslus pieņēmumus.

  • Labāka pārvaldība — jūs dokumentēsiet kompromisus, nevis vicināsiet tos ar roku.

  • Labāk sarunās — ar vadītājiem, regulatoriem un skartajiem cilvēkiem.

Turklāt taisnīguma rādītāju un politikas valodas apgūšana ietaupa laiku vēlāk. Godīgi sakot, tas ir kā kartes iegāde pirms ceļojuma – nepilnīga, tomēr daudz labāka nekā vibrācijas. [2]


Mākslīgā intelekta aizspriedumu veidi, ko jūs faktiski redzēsiet dabā 🧭

Aizspriedumi parādās visā mākslīgā intelekta dzīves ciklā. Bieži sastopamas tendences, ar kurām komandas saskaras:

  • Datu izlases neobjektivitāte — dažas grupas ir nepietiekami pārstāvētas vai to nav.

  • Etiķešu aizspriedumi — vēsturiskās etiķetes kodē aizspriedumus vai trokšņainus cilvēku spriedumus.

  • Mērījumu neobjektivitāte — aizstājējvērtības, kas neatspoguļo to, ko jūs patiesi vērtējat.

  • Novērtēšanas neobjektivitāte — testa kopas neaptver noteiktas populācijas vai kontekstus.

  • Izvietošanas neobjektivitāte — labs laboratorijas modelis, kas izmantots nepareizā vidē.

  • Sistēmiski un cilvēciski aizspriedumi — plašāki sociālie modeļi un komandas izvēles iekļūst tehnoloģijās.

Noderīgs standartu institūciju mentālais modelis grupē aizspriedumus cilvēciskajās, tehniskajās un sistēmiskajās kategorijās un iesaka sociāli tehnisko pārvaldību, nevis tikai modeļa pielāgojumus. [1]


Kur aizspriedumi iezogas cauruļvadā 🔍

  1. Problēmas formulējums — pārāk šauri definējat mērķauditoriju, un jūs izslēdzat cilvēkus, kuriem produktam vajadzētu kalpot.

  2. Datu iegūšana — vēsturiskie dati bieži vien kodē pagātnes nevienlīdzību.

  3. Funkciju izvēles — sensitīvu atribūtu aizstājējautori var atjaunot sensitīvus atribūtus.

  4. Apmācība — mērķi tiek optimizēti vidējai precizitātei, nevis vienlīdzībai.

  5. Testēšana — ja jūsu aiztures komplekts ir sagrozīts, arī jūsu metrikas ir sagrozītas.

  6. Uzraudzība — lietotāju vai konteksta izmaiņas var atkārtoti izraisīt problēmas.

Regulatori uzsver taisnīguma risku dokumentēšanu visā šajā dzīves ciklā, ne tikai modeļa pielāgošanas laikā. Tas ir uzdevums, kurā iesaistītas visas puses. [2]


Kā mēs varam izmērīt taisnīgumu, neieejot aplī? 📏

Nav viena rādītāja, kas pārvaldītu visus. Izvēlieties, pamatojoties uz savu lietošanas gadījumu un kaitējumu, no kura vēlaties izvairīties.

  • Demogrāfiskā paritāte — atlases rādītājiem jābūt līdzīgiem visās grupās. Piemērots sadales jautājumiem, bet var būt pretrunā ar precizitātes mērķiem. [3]

  • Izlīdzinātas izredzes — kļūdu rādītājiem, piemēram, viltus pozitīviem un patiesi pozitīviem rezultātiem, jābūt līdzīgiem. Noderīgi, ja kļūdu izmaksas dažādās grupās atšķiras. [3]

  • Kalibrēšana — ar vienādu rezultātu rezultātiem jābūt vienlīdz ticamiem visās grupās. Noderīgi, ja rezultāti ietekmē cilvēku lēmumus. [3]

Rīkkopa padara to praktisku, aprēķinot nepilnības, diagrammas un informācijas paneļus, lai jūs varētu beigt minēt. [3]


Praktiski veidi, kā mazināt aizspriedumus, kas patiešām darbojas 🛠️

Domājiet par daudzslāņainiem mazināšanas veidiem, nevis vienu brīnumlīdzekli:

  • Datu auditi un bagātināšana — aptvēruma nepilnību noteikšana, drošāku datu vākšana, ja tas ir likumīgi, dokumentu izlase.

  • Atkārtota svēršana un atkārtota izlase — pielāgojiet apmācības sadalījumu, lai samazinātu novirzi.

  • Apstrādes ierobežojumi — pievienojiet mērķim taisnīguma mērķus, lai modelis tieši apgūtu kompromisus.

  • Konkurences debiazēšana — apmāciet modeli tā, lai sensitīvie atribūti nebūtu paredzami no iekšējām reprezentācijām.

  • Pēcapstrāde — kalibrējiet lēmumu sliekšņus katrai grupai, ja tas ir piemēroti un likumīgi.

  • Cilvēka vadītas pārbaudes — apvienojiet modeļus ar izskaidrojamiem kopsavilkumiem un eskalācijas ceļiem.

Atvērtā pirmkoda bibliotēkas, piemēram, AIF360 un Fairlearn, nodrošina gan metrikas, gan mazināšanas algoritmus. Tās nav maģiskas, taču tās sniegs jums sistemātisku sākumpunktu. [5][3]


Reālās pasaules pierādījums tam, ka aizspriedumi ir svarīgi 📸💳🏥

  • Sejas analīze — plaši citēti pētījumi dokumentēja lielas precizitātes atšķirības starp dzimumiem un ādas tipa grupām komerciālajās sistēmās, virzot nozari uz labāku novērtēšanas praksi. [4]

  • Lēmumi, kas saistīti ar augstām likmēm (kredīts, pieņemšana darbā, mājoklis) — pat bez apzinātas rīcības neobjektīvi rezultāti var būt pretrunā ar taisnīguma un diskriminācijas aizlieguma pienākumiem. Tulkojums: jūs esat atbildīgs par sekām, ne tikai par kodu. [2]

Īss atgadījums no prakses: anonimizētā atlases auditā komanda atklāja sieviešu atpazīšanas nepilnības tehniskajos amatos. Vienkārši soļi — labāk stratificēti sadalījumi, funkciju pārskatīšana un robežvērtību noteikšana pa grupām — novērsa lielāko daļu nepilnību ar nelielu precizitātes kompromisu. Galvenais nebija viens triks; tā bija atkārtojama mērīšanas, mazināšanas un uzraudzības cilpa.


Politika, likums un pārvaldība: kā izskatās “labs” 🧾

Jums nav jābūt juristam, taču jums ir jāveido dizains, kas ir taisnīgs un izskaidrojams:

  • Taisnīguma principi — uz cilvēku vērstas vērtības, pārredzamība un nediskriminācija visā dzīves ciklā. [1]

  • Datu aizsardzība un vienlīdzība — attiecībā uz personas datiem sagaidiet pienākumus attiecībā uz taisnīgumu, mērķa ierobežojumu un individuālajām tiesībām; var tikt piemēroti arī nozares noteikumi. Savlaicīgi izplānojiet savus pienākumus. [2]

  • Riska pārvaldība — izmantojiet strukturētas sistēmas, lai identificētu, mērītu un uzraudzītu neobjektivitāti kā daļu no plašākām mākslīgā intelekta riska programmām. Pierakstiet to. Pārskatiet to. Atkārtojiet. [1]

Neliela piezīme: dokumentu kārtošana nav tikai birokrātija; tā ir metode, kā pierādīt, ka darbu patiešām paveicāt, ja kāds jautā.


Salīdzināšanas tabula: rīki un ietvari mākslīgā intelekta aizspriedumu mazināšanai 🧰📊

Rīks vai ietvars Vislabāk piemērots Cena Kāpēc tas darbojas... kaut kā tā
AIF360 Datu zinātnieki, kuri vēlas metrikas + mazināšanas pasākumus Bezmaksas Daudz algoritmu vienuviet; ātri izveidojams prototips; palīdz veikt bāzes izpēti un salīdzināt labojumus. [5]
Fērlīna Komandas līdzsvaro precizitāti ar taisnīguma ierobežojumiem Bezmaksas Skaidras API novērtēšanai/risinājumu mazināšanai; noderīgas vizualizācijas; scikit-draudzīga apguvei. [3]
NIST mākslīgais intelekts (SP 1270) Risks, atbilstība un vadība Bezmaksas Kopīga valoda cilvēciskām/tehniskām/sistēmiskām neobjektivitātes un dzīves cikla pārvaldības apzīmēšanai. [1]
ICO vadlīnijas Apvienotās Karalistes komandas, kas apstrādā personas datus Bezmaksas Praktiski kontrolsaraksti taisnīguma/diskriminācijas riskiem visā mākslīgā intelekta dzīves ciklā. [2]

Katrs no šiem jautājumiem palīdz jums atbildēt uz to, kāda ir mākslīgā intelekta neobjektivitāte jūsu kontekstā, sniedzot jums struktūru, metrikas un kopīgu vārdu krājumu.


Īsa, nedaudz uz savu viedokli balstīta darbplūsma 🧪

  1. Norādiet kaitējumu, no kura vēlaties izvairīties , piemēram, sadales kaitējumu, kļūdu līmeņa atšķirības, cieņas kaitējumu utt.

  2. Izvēlieties metriku, kas atbilst šim kaitējumam , piemēram, izlīdzinātas izredzes, ja kļūdas paritātei ir nozīme. [3]

  3. Veiciet bāzes līniju analīzi , izmantojot šodienas datus un modeli. Saglabājiet taisnīguma ziņojumu.

  4. Vispirms izmēģiniet risinājumus ar mazu berzi — labāku datu sadalījumu, sliekšņu noteikšanu vai atkārtotu svēršanu.

  5. pārejiet uz apstrādes laikā esošajiem ierobežojumiem.

  6. Atkārtoti izvērtējiet aiztures kopas, kas pārstāv reālus lietotājus.

  7. Uzraudzīt ražošanu — notiek izplatīšanas maiņas; arī informācijas paneļiem vajadzētu būt šādām izmaiņām.

  8. Dokumentējiet kompromisus — taisnīgums ir atkarīgs no konteksta, tāpēc paskaidrojiet, kāpēc izvēlējāties paritāti X, nevis paritāti Y. [1][2]

Regulatori un standartu institūcijas pamatota iemesla dēļ turpina uzsvērt dzīves cikla domāšanu. Tā darbojas. [1]


Komunikācijas padomi ieinteresētajām personām 🗣️

  • Izvairieties no tikai matemātiskiem skaidrojumiem — vispirms parādiet vienkāršas diagrammas un konkrētus piemērus.

  • Izmantojiet vienkāršu valodu — norādiet, ko modelis varētu darīt negodīgi un ko tas varētu ietekmēt.

  • Virszemes kompromisi — taisnīguma ierobežojumi var mainīt precizitāti; tā nav kļūda, ja tā samazina kaitējumu.

  • Plānojiet neparedzētus gadījumus — kā apturēt vai atcelt darbību, ja rodas problēmas.

  • Iesaistiet uzmanību — ārēja pārskatīšana vai “sarkanā komanda” atklāj aklās zonas. Nevienam tas nepatīk, bet tas palīdz. [1][2]


Bieži uzdotie jautājumi: kas īsti ir mākslīgā intelekta aizspriedumi? ❓

Vai neobjektivitāte nav tikai slikti dati?
Un ne tikai. Dati ir svarīgi, bet modelēšanas izvēles, novērtēšanas dizains, izvietošanas konteksts un komandas motivācija ietekmē rezultātus. [1]

Vai es varu pilnībā novērst aizspriedumus?
Parasti nē. Jūsu mērķis ir pārvaldīt aizspriedumus, lai tie neradītu netaisnīgas sekas — domājiet par samazināšanu un pārvaldību, nevis pilnveidošanu. [2]

Kuru taisnīguma rādītāju man vajadzētu izmantot?
Izvēlieties, pamatojoties uz kaitējuma veidu un domēna noteikumiem. Piemēram, ja kļūdaini pozitīvi rezultāti vairāk kaitē grupai, koncentrējieties uz kļūdu līmeņa paritāti (vienādotas izredzes). [3]

Vai man ir nepieciešama juridiska pārskatīšana?
Ja jūsu sistēma skar cilvēku iespējas vai tiesības, jā. Uz algoritmiskiem lēmumiem var attiekties uz patērētāju un vienlīdzības principiem orientēti noteikumi, un jums ir jāpierāda savs darbs. [2]


Noslēguma piezīmes: pārāk garš, neizlasīju 🧾✨

Ja kāds jums jautā, kas ir mākslīgā intelekta aizspriedumi , lūk, viegli uzkožama atbilde: tā ir sistemātiska mākslīgā intelekta rezultātu novirze, kas reālajā pasaulē var radīt negodīgas sekas. Jūs to diagnosticējat ar kontekstam atbilstošiem rādītājiem, mazināt ar daudzslāņainām metodēm un pārvaldīt to visā dzīves ciklā. Tā nav viena kļūda, ko apspiest — tas ir produkta, politikas un cilvēku jautājums, kam nepieciešama pastāvīga mērīšana, dokumentēšana un pazemība. Es domāju, ka nav nekādas brīnumlīdzekļa... bet ir pienācīgi kontrolsaraksti, godīgi kompromisi un labāki ieradumi. Un jā, dažas emocijzīmes nekad nenāk par ļaunu. 🙂


Atsauces

  1. NIST īpašā publikācija 1270 — Ceļā uz standartu mākslīgā intelekta aizspriedumu identificēšanai un pārvaldībai . Saite

  2. Apvienotās Karalistes Informācijas komisāra birojs — kā ar taisnīgumu, aizspriedumiem un diskrimināciju? Saite

  3. Fairlearn dokumentācija — izplatītākie taisnīguma rādītāji (demogrāfiskā paritāte, izlīdzinātās izredzes, kalibrēšana). Saite

  4. Buolamwini, J. un Gebru, T. (2018). Dzimuma ēnas: krusteniskās precizitātes atšķirības komerciālajā dzimumu klasifikācijā . FAT* / PMLR. Saite

  5. IBM Research — Iepazīstinām ar AI Fairness 360 (AIF360) . Saite

Atrodiet jaunāko mākslīgo intelektu oficiālajā mākslīgā intelekta palīgu veikalā

Par mums

Atpakaļ uz emuāru