Īsa atbilde: Izstrādātāji, kas izmanto ģeneratīvo mākslīgo intelektu (MI), ir atbildīgi par visu sistēmu, ne tikai par modeļa rezultātu. Kad MI ietekmē lēmumus, kodu, privātumu vai lietotāju uzticēšanos, viņiem ir jāizvēlas drošas lietojumprogrammas, jāpārbauda rezultāti, jāaizsargā dati, jāsamazina kaitējums un jānodrošina, ka cilvēki var pārskatīt, ignorēt un labot kļūdas.
Galvenie secinājumi:
Verifikācija : apstrādāt noslīpētus rezultātus kā neuzticamus, līdz tos apstiprina avoti, testi vai cilvēku veikta pārskatīšana.
Datu aizsardzība : samaziniet tūlītēju datu apjomu, noņemiet identifikatorus un nodrošiniet žurnālus, piekļuves kontroles un piegādātājus.
Taisnīgums : veiciet testus dažādās demogrāfiskajās grupās un kontekstos, lai atklātu stereotipus un nevienmērīgus neveiksmju modeļus.
Caurspīdīgums : Skaidri marķējiet mākslīgā intelekta izmantošanu, izskaidrojiet tā ierobežojumus un piedāvājiet cilvēkam veikt pārskatīšanu vai apelāciju.
Atbildība : pirms palaišanas piešķiriet skaidrus izvietošanas, incidentu, uzraudzības un atcelšanas īpašniekus.

Raksti, kurus jūs varētu vēlēties izlasīt pēc šī raksta:
🔗 Labākie mākslīgā intelekta rīki programmatūras izstrādātājiem: labākie mākslīgā intelekta darbināmie kodēšanas palīgi
Salīdziniet labākos mākslīgā intelekta kodēšanas palīgus ātrākām un tīrākām izstrādes darbplūsmām.
🔗 10 labākie mākslīgā intelekta rīki izstrādātājiem produktivitātes uzlabošanai
Izstrādātāju mākslīgā intelekta rīku rangu saraksts gudrākai kodēšanai un ātrumam.
🔗 Kāpēc mākslīgais intelekts var kaitēt sabiedrībai un uzticībai
Izskaidro reālās pasaules kaitējumu: aizspriedumus, privātumu, darba vietas un dezinformācijas riskus.
🔗 Vai mākslīgais intelekts ir aizgājis par tālu svarīgu lēmumu pieņemšanā?
Nosaka, kad mākslīgais intelekts pārkāpj robežas: novērošana, dziļviltojums, pārliecināšana, piekrišanas neesamība.
Kāpēc izstrādātāju atbildība, izmantojot ģeneratīvo mākslīgo intelektu, ir svarīgāka, nekā cilvēki domā
Daudz programmatūras kļūdu ir kaitinošas. Poga salūzt. Lapa ielādējas lēni. Kaut kas avarē, un visi vaid.
Ģeneratīvā mākslīgā intelekta problēmas var būt dažādas. Tās var būt nemanāmas.
Modelis var šķist pārliecināts, vienlaikus kļūdoties. NIST GenAI profils Tas var reproducēt neobjektivitāti bez acīmredzamām brīdinājuma zīmēm. NIST GenAI profils Tas var atklāt sensitīvus datus, ja tos izmanto neuzmanīgi. OWASP 10 labākie jautājumi LLM lietojumprogrammām ICO astoņi jautājumi par ģeneratīvo mākslīgo intelektu Tas var ģenerēt kodu, kas darbojas — līdz brīdim, kad tas neizdodas ražošanā kādā dziļi apkaunojošā veidā. OWASP 10 labākie jautājumi LLM lietojumprogrammām Līdzīgi kā pieņemt darbā ļoti entuziastisku praktikantu, kurš nekad neguļ un laiku pa laikam izdomā faktus ar satriecošu pārliecību.
Tāpēc izstrādātāju atbildība, izmantojot ģeneratīvo mākslīgo intelektu (AI), ir lielāka nekā vienkārša ieviešana. Izstrādātāji vairs neveido tikai loģiskas sistēmas. Viņi veido varbūtības sistēmas ar izplūdušām malām, neparedzamiem rezultātiem un reālām sociālām sekām. NIST AI RMF (minimālais mākslīgā intelekta modelis).
Tas nozīmē, ka atbildība ietver:
-
NIST mākslīgā intelekta RMF modeļa ierobežojumiem
-
lietotāju privātuma aizsardzība ICO vadlīnijas par mākslīgo intelektu un datu aizsardzību
-
kaitīgo izvades avotu samazināšana NIST GenAI profils
-
precizitātes pārbaude pirms uzticības piešķiršanas NIST GenAI profils
-
cilvēka lomas skaidra noteikšana ESAO mākslīgā intelekta principi
-
rezerves ceļu izstrāde mākslīgā intelekta kļūmes gadījumā ESAO mākslīgā intelekta principi NCSC droša mākslīgā intelekta vadlīnijas
-
sistēmas skaidra dokumentēšana ESAO mākslīgā intelekta principi
Ziniet, kā tas notiek — kad rīks šķiet maģisks, cilvēki pārstāj to apšaubīt. Izstrādātāji nevar atļauties būt tik atslābināti.
Kas veido labu izstrādātāju atbildības versiju, izmantojot ģeneratīvo mākslīgo intelektu (MI)? 🛠️
Laba atbildības versija nav performatīva. Tā nav tikai atrunas pievienošana apakšā un tā nosaukšana par ētiku. Tā parādās dizaina izvēlēs, testēšanas paradumos un produkta uzvedībā.
Lūk, kā parasti izskatās izstrādātāju atbildības versija, izmantojot ģeneratīvo mākslīgo intelektu
-
NIST AI RMF izmantošana
-
Mākslīgais intelekts tiek izmantots reālas problēmas risināšanai, nevis tiek iespiests produktā tikai tāpēc, ka tas izklausās moderni.
-
-
Cilvēka uzraudzība ESAO mākslīgā intelekta principi
-
Cilvēki var pārskatīt, labot, ignorēt vai noraidīt rezultātus.
-
-
Drošība pēc konstrukcijas NCSC drošas mākslīgā intelekta vadlīnijas
-
Riska kontroles mehānismi tiek iestrādāti jau agrīnā stadijā, nevis pielīmēti vēlāk.
-
-
Pārredzamība ESAO Mākslīgā intelekta principi Eiropas Komisija Mākslīgā intelekta likuma pārskats
-
Lietotāji saprot, kad saturs ir ģenerēts ar mākslīgā intelekta palīdzību vai ar mākslīgā intelekta palīdzību.
-
-
Datu aprūpes ICO astoņi jautājumi ģeneratīvajam mākslīgajam intelektam
-
Ar sensitīvu informāciju tiek rūpīgi strādāts, un piekļuve tai ir ierobežota.
-
-
Godīguma pārbaudes NIST GenAI profila ICO vadlīnijas par mākslīgo intelektu un datu aizsardzību
-
Sistēma tiek pārbaudīta attiecībā uz neobjektivitāti, nevienmērīgu veiktspēju un kaitīgiem modeļiem.
-
-
Pastāvīga uzraudzība NIST AI RMF NCSC droša AI vadlīnijas
-
Palaišana nav finiša līnija. Tā drīzāk ir kā starta svilpe.
-
Ja tas izklausās daudz, tad... tā tas arī ir. Bet tāda ir situācija, strādājot ar tehnoloģijām, kas var ietekmēt lēmumus, uzskatus un uzvedību plašā mērogā. ESAO mākslīgā intelekta principi.
Salīdzināšanas tabula — īss pārskats par izstrādātāju galveno atbildību, izmantojot ģeneratīvo mākslīgo intelektu 📋
| Atbildības joma | Kuru tas ietekmē | Ikdienas izstrādātāja prakse | Kāpēc tas ir svarīgi |
|---|---|---|---|
| Precizitāte un verifikācija | lietotāji, komandas, klienti | Pārskatīt rezultātus, pievienot validācijas slāņus, pārbaudīt malējos gadījumus | Mākslīgais intelekts var darboties plūstoši un joprojām mežonīgi kļūdīties — tā ir aptuvena kombinācija (NIST GenAI profils). |
| Privātuma aizsardzība | lietotāji, klienti, iekšējie darbinieki | Samaziniet sensitīvu datu izmantošanu, meklējiet uzvednes, kontrolējiet žurnālus | Kad noplūst privāti dati, zobu pasta vairs nav pieejama 😬 ICO astoņi jautājumi par ģeneratīvo mākslīgo intelektu (AI) , OWASP — 10 labākie jautājumi LLM lietojumprogrammām. |
| Aizspriedumi un taisnīgums | nepietiekami pārstāvētas grupas, visi lietotāji patiesībā | Revīzijas rezultāti, dažādu ievades datu pārbaude, drošības pasākumu regulēšana | Kaitējums ne vienmēr ir skaļš — dažreiz tas ir sistemātisks un kluss. NIST GenAI profila ICO vadlīnijas par mākslīgo intelektu un datu aizsardzību. |
| Drošība | uzņēmuma sistēmas, lietotāji | Ierobežojiet piekļuvi modelim, aizsargājiet pret tūlītēju ievadīšanu, veiciet riskantas darbības smilškastē | Viens gudrs uzbrukums var ātri sagraut uzticību OWASP Top 10 LLM lietojumprogrammām NCSC par mākslīgo intelektu un kiberdrošību |
| Caurspīdīgums | gala lietotāji, regulatori, atbalsta komandas | Skaidri apzīmējiet mākslīgā intelekta darbību, izskaidrojiet ierobežojumus, dokumentējiet lietošanu | Cilvēkiem ir tiesības zināt, kad mašīna palīdz. ESAO mākslīgā intelekta principu prakses kodekss par mākslīgā intelekta ģenerēta satura marķēšanu un etiķetēšanu. |
| Atbildība | produktu īpašnieki, juridiskie darbinieki, izstrādātāju komandas | Definēt atbildību, incidentu apstrādi, eskalācijas ceļus | “Mākslīgais intelekts to izdarīja” nav pieauguša cilvēka atbilde. ESAO mākslīgā intelekta principi. |
| Uzticamība | ikviens, kas pieskaras produktam | Uzraugiet kļūmes, iestatiet ticamības sliekšņus, izveidojiet rezerves loģiku | Modeļi novirzās, negaidīti neizdodas un laiku pa laikam piedzīvo dramatisku nelielu epizodi. NIST AI RMF NCSC drošas AI vadlīnijas. |
| Lietotāja labsajūta | neaizsargāti lietotāji, īpaši | Izvairieties no manipulatīva dizaina, ierobežojiet kaitīgus rezultātus, pārskatiet augsta riska lietošanas gadījumus | Tas, ka kaut ko var ģenerēt, nenozīmē, ka tam jābūt saskaņā ar ESAO mākslīgā intelekta principiem, NIST mākslīgā intelekta RMF. |
Nedaudz nevienmērīgs galds, protams, bet tas atbilst tēmai. Arī īstā atbildība ir nevienmērīga.
Atbildība sākas jau pirms pirmā aicinājuma — pareizā lietošanas gadījuma izvēle 🎯
Viena no lielākajām izstrādātāju atbildībām ir izlemt, vai vispār vajadzētu izmantot ģeneratīvo mākslīgo intelektu . NIST AI RMF
Tas izklausās acīmredzami, taču tas visu laiku tiek izlaists. Komandas ierauga modeli, sajūsminās un sāk to iespiest darbplūsmās, kuras labāk varētu apstrādāt ar noteikumiem, meklēšanu vai parastu programmatūras loģiku. Ne katrai problēmai ir nepieciešams valodas modelis. Dažām problēmām ir nepieciešama datubāze un klusa pēcpusdiena.
Pirms būvniecības uzsākšanas attīstītājiem jāuzdod šādi jautājumi:
-
Vai uzdevums ir bezgalīgs vai deterministisks?
-
Vai nepareiza izvade varētu radīt kaitējumu?
-
Vai lietotājiem ir nepieciešama radošums, prognozēšana, apkopošana, automatizācija — vai tikai ātrums?
-
Vai cilvēki pārāk uzticēsies rezultātiem? NIST GenAI profils
-
Vai cilvēks var reālistiski pārskatīt rezultātus? ESAO mākslīgā intelekta principi
-
Kas notiek, ja modelis ir nepareizs? ESAO mākslīgā intelekta principi
Atbildīgs attīstītājs ne tikai jautā: "Vai mēs varam to uzbūvēt?" Viņš jautā: "Vai tas būtu jābūvē šādi?" NIST AI RMF
Šis jautājums pats par sevi novērš daudz spožu muļķību.
Precizitāte ir atbildība, nevis papildu funkcija ✅
Būsim atklāti — viens no lielākajiem ģeneratīvā mākslīgā intelekta slazdiem ir daiļrunības sajaukšana ar patiesību. Modeļi bieži vien sniedz atbildes, kas izklausās noslīpētas, strukturētas un dziļi pārliecinošas. Kas ir jauki, līdz saturs kļūst par muļķībām, kas ietītas konfidencialitātē. NIST GenAI profils
Tātad izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu, atbildība ietver arī izveidi verifikācijai.
Tas nozīmē:
-
izmantojot atgūšanu vai iezemēšanu, ja iespējams , NIST GenAI profils
-
atdalot ģenerētu saturu no apstiprinātiem faktiem ESAO mākslīgā intelekta principi
-
uzmanīgi pievienojot ticamības sliekšņus NIST AI RMF
-
Izveidojot pārskatīšanas darbplūsmas augstas likmes rezultātiem ESAO mākslīgā intelekta principi
-
novēršot modeļa improvizāciju kritiskos kontekstos NIST GenAI profils
-
testēšanas uzvednes, kas mēģina uzlauzt vai maldināt sistēmu OWASP Top 10 LLM lietojumprogrammām
Tam ir liela nozīme tādās jomās kā:
-
veselības aprūpe
-
finanses
-
juridiskās darbplūsmas
-
izglītība
-
klientu atbalsts
-
uzņēmuma automatizācija
-
koda ģenerēšana
Piemēram, ģenerēts kods var izskatīties sakārtots, vienlaikus slēpjot drošības trūkumus vai loģikas kļūdas. Izstrādātājs, kas to kopē akli, nav efektīvs — viņš vienkārši nodod risku ārpakalpojumā skaistākā formātā. OWASP 10 labākie LLM lietojumprogrammu autori NCSC par mākslīgo intelektu un kiberdrošību
Modelis var palīdzēt. Izstrādātājs joprojām pieder rezultātam. ESAO mākslīgā intelekta principi.
Privātums un datu pārvaldība nav apspriežama 🔐
Šeit lietas ātri kļūst nopietnas. Ģeneratīvās mākslīgā intelekta sistēmas bieži vien izmanto uzvednes, žurnālus, konteksta logus, atmiņas slāņus, analītiku un trešo pušu infrastruktūru. Tas rada daudzas iespējas sensitīviem datiem noplūst, saglabāties vai tikt atkārtoti izmantoti veidos, ko lietotāji nekad nav gaidījuši. ICO astoņi jautājumi par ģeneratīvo mākslīgo intelektu: OWASP Top 10 LLM lietojumprogrammām.
Izstrādātājiem ir pienākums aizsargāt:
-
personiskā informācija
-
finanšu uzskaite
-
medicīniskā informācija
-
uzņēmuma iekšējie dati
-
komercnoslēpumi
-
autentifikācijas žetoni
-
klientu komunikācija
Atbildīga prakse ietver:
-
samazinot datu daudzumu, kas tiek ievadīts modelī, ICO astoņi jautājumi par ģeneratīvo mākslīgo intelektu
-
identifikatoru maskēšana vai noņemšana NIST GenAI profilā
-
žurnālu saglabāšanas ierobežošana ICO vadlīnijas par mākslīgo intelektu un datu aizsardzību
-
kontrolējot, kas var piekļūt uzvednēm un izvades datiem, OWASP Top 10 LLM lietojumprogrammām
-
rūpīgi pārskatot pārdevēja iestatījumus NCSC drošas mākslīgā intelekta vadlīnijas
-
augsta riska darbplūsmu izolēšana NCSC drošas mākslīgā intelekta vadlīnijas
-
padarot privātuma uzvedību redzamu lietotājiem; ICO astoņi jautājumi par ģeneratīvo mākslīgo intelektu
Šī ir viena no tām jomām, kur "mēs aizmirsām par to padomāt" nav mazsvarīga kļūda. Tā ir uzticību graujoša neveiksme.
Un uzticība, reiz saplaisājusi, izplatās kā nokritusi glāze. Varbūt ne pati glītākā metafora, bet jūs sapratāt.
Aizspriedumi, taisnīgums un pārstāvniecība — klusākie pienākumi ⚖️
Ģeneratīvajā mākslīgajā intelektā aizspriedumi reti ir multfilmas ļaundaris. Parasti tie ir daudz viltīgāki. Modelis var radīt stereotipizētus darba pienākumu aprakstus, nevienmērīgus moderācijas lēmumus, nesamērīgus ieteikumus vai kulturāli šaurus pieņēmumus, neizraisot acīmredzamas trauksmes signālus. NIST GenAI profils
Tāpēc izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu, atbildība ietver aktīvu darbu taisnīguma jomā.
Izstrādātājiem vajadzētu:
-
testa uzvednes no dažādām demogrāfiskām grupām un kontekstiem NIST GenAI profils
-
NIST GenAI profila pārskatīšanas rezultāti attiecībā uz stereotipiem un izslēgšanu
-
novērtēšanā iesaistīt dažādas perspektīvas NIST AI RMF
-
pievērsiet uzmanību nevienmērīgiem atteices modeļiem NIST GenAI profilā
-
izvairīties no pieņēmuma, ka viens valodas stils vai kultūras norma der visiem; ICO vadlīnijas par mākslīgo intelektu un datu aizsardzību.
-
izveidot ziņošanas kanālus kaitīgai izvadei NIST AI RMF
Sistēma kopumā var šķist labi darbojošamies, bet vienlaikus dažiem lietotājiem tā var kalpot sliktāk nekā citiem. Tas nav pieņemami tikai tāpēc, ka vidējā veiktspēja informācijas panelī izskatās labi. ICO vadlīnijas par mākslīgo intelektu un datu aizsardzību NIST GenAI profils.
Un jā, taisnīgums ir grūtāks par kārtīgu kontrolsarakstu. Tajā ir spriedums. Konteksts. Kompromisi. Arī zināma diskomforta pakāpe. Bet tas neatbrīvo no atbildības – tas to apstiprina. ICO vadlīnijas par mākslīgo intelektu un datu aizsardzību.
Drošība tagad ir daļēji tūlītēja projektēšana, daļēji inženiertehniskā disciplīna 🧱
Ģeneratīvā mākslīgā intelekta drošība ir savs īpatnējs zvērs. Tradicionālo lietotņu drošība, protams, joprojām ir svarīga, taču mākslīgā intelekta sistēmas pievieno neparastas uzbrukuma virsmas: tūlītēja injekcija, netieša tūlītēja manipulācija, nedroša rīku izmantošana, datu noplūde caur kontekstu un modeļa ļaunprātīga izmantošana, izmantojot automatizētas darbplūsmas. OWASP 10 labākie LLM lietojumprogrammām NCSC par mākslīgo intelektu un kiberdrošību.
Izstrādātāji ir atbildīgi par visas sistēmas, ne tikai saskarnes, drošību. NCSC drošas mākslīgā intelekta vadlīnijas.
Galvenie pienākumi šeit ir šādi:
-
neuzticamas ievades attīrīšana OWASP Top 10 LLM lietojumprogrammām
-
ierobežojot rīkus, ko modelis var saukt par OWASP Top 10 LLM lietojumprogrammām
-
failu un tīkla piekļuves ierobežošana NCSC drošas mākslīgā intelekta vadlīnijas
-
skaidri nodalot atļaujas NCSC drošas mākslīgā intelekta vadlīnijas
-
ļaunprātīgas izmantošanas modeļu uzraudzība NCSC drošas mākslīgā intelekta vadlīnijas
-
ātrumu ierobežojošas dārgas vai riskantas darbības OWASP 10 labākie LLM lietojumprogrammām
-
OWASP 10 labākie LLM pieteikumi, testējot pretinieku uzdevumjoslas
-
drošu rezerves risinājumu izveide, ja instrukcijas ir pretrunā ar ESAO mākslīgā intelekta principiem
Viena nepatīkama patiesība ir tāda, ka lietotāji — un uzbrucēji — noteikti izmēģinās lietas, ko izstrādātāji negaidīja. Daži ziņkārības dēļ, daži ļaunprātības dēļ, daži tāpēc, ka pulksten divos naktī noklikšķināja uz nepareizās lietas. Tā gadās.
Ģeneratīvā mākslīgā intelekta drošība vairāk līdzinās ļoti runīga vārtu sarga pārvaldīšanai, kuru dažreiz apmāna frāzes.
Caurspīdīgums un lietotāju piekrišana ir svarīgāka par košu lietotāja pieredzi 🗣️
Kad lietotāji mijiedarbojas ar mākslīgo intelektu (MI), viņiem tas ir jāzina. ESAO MI principu prakses kodekss par MI ģenerēta satura marķēšanu un etiķetēšanu.
Ne gluži neskaidri. Ne gluži vārdos aprakts. Skaidri un nepārprotami.
Izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu (MI), atbildības pamatelements ir nodrošināt, lai lietotāji saprastu:
-
kad tiek izmantots mākslīgais intelekts, ESAO mākslīgā intelekta principi
-
ko mākslīgais intelekts var un ko nevar darīt ESAO mākslīgā intelekta principi
-
vai rezultātus pārskata cilvēki ESAO mākslīgā intelekta principi
-
kā tiek apstrādāti viņu dati. ICO astoņi jautājumi par ģeneratīvo mākslīgo intelektu.
-
kāds pārliecības līmenis viņiem būtu jābūt NIST AI RMF
-
Kā ziņot par problēmām vai pārsūdzēt lēmumus? ESAO mākslīgā intelekta principi NIST mākslīgā intelekta RMF
Caurspīdīgums nav domāts lietotāju biedēšanai. Tā ir domāta viņu cieņai.
Laba pārredzamība var ietvert:
-
marķējumi, piemēram, mākslīgā intelekta ģenerēts vai mākslīgā intelekta atbalstīts prakses kodekss par mākslīgā intelekta ģenerēta satura marķēšanu un apzīmēšanu
-
vienkāršā valodā skaidrojumi ESAO mākslīgā intelekta principi
-
redzamas rediģēšanas vēstures, ja nepieciešams
-
iespējas izslēgt AI funkcijas
-
eskalācija cilvēkam, ja nepieciešams ESAO mākslīgā intelekta principi
-
Īsi brīdinājumi par augsta riska uzdevumiem Eiropas Komisijas Mākslīgā intelekta akta pārskats
Daudzas produktu komandas uztraucas, ka godīgums padarīs funkciju mazāk maģisku. Varbūt. Taču viltus pārliecība ir vēl ļaunāka. Vienmērīgs interfeiss, kas slēpj risku, būtībā ir noslīpēta apjukuma sajūta.
Izstrādātāji joprojām ir atbildīgi — pat ja modelis “pieņem lēmumu” 👀
Šai daļai ir liela nozīme. Atbildību nevar uzticēt modeļa piegādātājam, modeļa kartei, uzvednes veidnei vai mašīnmācīšanās noslēpumainajai atmosfērai. ESAO AI principi , NIST AI RMF.
Izstrādātāji joprojām ir atbildīgi. ESAO mākslīgā intelekta principi
Tas nozīmē, ka kādam komandas dalībniekam vajadzētu piederēt:
-
modeļa izvēle NIST AI RMF
-
testēšanas standarti NIST GenAI profils
-
publicēšanas kritēriji NIST GenAI profils
-
incidentu reaģēšana NCSC drošas mākslīgā intelekta vadlīnijas
-
lietotāju sūdzību izskatīšana NIST AI RMF
-
atcelšanas procedūras ESAO mākslīgā intelekta principi
-
izmaiņu izsekošana ESAO mākslīgā intelekta principi
-
dokumentācija ESAO mākslīgā intelekta principi
Jābūt skaidrām atbildēm uz tādiem jautājumiem kā:
-
Kas apstiprina izvietošanu? NIST GenAI profils
-
Kas pārskata kaitīgas izvades incidentus? NIST GenAI profils
-
Kas var atspējot šo funkciju? ESAO mākslīgā intelekta principi
-
Kas uzrauga regresijas? NIST AI RMF
-
Kas sazinās ar lietotājiem, ja kaut kas sabojājas? ESAO mākslīgā intelekta principi
Bez atbildības sajūtas atbildība pārvēršas miglā. Visi pieņem, ka kāds cits to dara... un tad neviens to nedara.
Patiesībā šis modelis ir vecāks nekā mākslīgais intelekts. Mākslīgais intelekts to vienkārši padara bīstamāku.
Atbildīgi izstrādātāji veido, lai labotu, nevis pilnveidotu 🔄
Šeit ir mazs pavērsiens visā šajā: atbildīgas mākslīgā intelekta izstrādes mērķis nav izlikties, ka sistēma būs perfekta. Tā ir pieņešana, ka tā kaut kādā veidā neizdosies, un izstrāde, ņemot vērā šo realitāti. NIST AI RMF
Tas nozīmē tādu produktu izstrādi, kas ir:
-
auditējami ESAO mākslīgā intelekta principi
-
lēmumus un rezultātus var pārskatīt vēlāk
-
-
pārtraucami ESAO mākslīgā intelekta principi
-
cilvēki var apturēt vai ignorēt sliktu uzvedību
-
-
atgūstami ESAO mākslīgā intelekta principi
-
Ja mākslīgā intelekta izvade ir nepareiza, pastāv rezerves risinājums
-
-
uzraugāmas NCSC drošas mākslīgā intelekta vadlīnijas NIST mākslīgā intelekta RMF
-
komandas var pamanīt modeļus, pirms tie kļūst par katastrofām
-
-
uzlabojams NIST GenAI profils
-
atgriezeniskās saites cilpas pastāv, un kāds tās lasa
-
Lūk, kā izskatās briedums. Nevis spožas demonstrācijas. Nevis elpu aizraujoši mārketinga teksti. Īstas sistēmas ar drošības barjerām, žurnāliem, atbildību un pietiekamu pazemību, lai atzītu, ka mašīna nav burvis. NCSC drošas mākslīgā intelekta vadlīnijas, ESAO mākslīgā intelekta principi.
Jo tas tā nav. Tas ir instruments. Spēcīgs, jā. Bet tomēr instruments.
Noslēguma pārdomas par izstrādātāju atbildību, izmantojot ģeneratīvo mākslīgo intelektu 🌍
Tātad, kāda ir izstrādātāju atbildība, izmantojot ģeneratīvo mākslīgo intelektu ?
Tas nozīmē veidot ar rūpību. Apšaubīt, kur sistēma palīdz un kur tā kaitē. Aizsargāt privātumu. Pārbaudīt neobjektivitāti. Pārbaudīt rezultātus. Nodrošināt darbplūsmu. Būt caurspīdīgam pret lietotājiem. Saglabāt cilvēkiem jēgpilnu kontroli. Uzņemties atbildību, ja kaut kas noiet greizi. NIST AI RMF OECD AI principi
Tas var izklausīties sarežģīti – un tā tas arī ir. Taču tas arī atšķir pārdomātu izstrādi no neapdomīgas automatizācijas.
Labākie izstrādātāji, kas izmanto ģeneratīvo mākslīgo intelektu (MI), nav tie, kas liek modelim veikt visvairāk triku. Viņi ir tie, kas saprot šo triku sekas un attiecīgi izstrādā dizainu. Viņi zina, ka ātrums ir svarīgs, bet uzticēšanās ir īstais produkts. Savādi, ka šī vecmodīgā ideja joprojām ir aktuāla. NIST MI RMF
Galu galā atbildība nav šķērslis inovācijām. Tā ir tā, kas neļauj inovācijām pārvērsties dārgā, turbulentā izplešanās procesā ar noslīpētu saskarni un uzticēšanās problēmām 😬✨
Un varbūt tā ir vienkāršākā versija.
Būvējiet drosmīgi, protams, bet būvējiet tā, it kā cilvēki tiktu ietekmēti, jo tas tā arī ir. ESAO mākslīgā intelekta principi
Bieži uzdotie jautājumi
Kāda ir izstrādātāju atbildība, kuri praksē izmanto ģeneratīvo mākslīgo intelektu?
Izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu, atbildība sniedzas daudz tālāk par funkciju ātru piegādi. Tā ietver pareizā lietošanas gadījuma izvēli, rezultātu testēšanu, privātuma aizsardzību, kaitīgas uzvedības samazināšanu un sistēmas saprotamības nodrošināšanu lietotājiem. Praksē izstrādātāji joprojām ir atbildīgi par rīka izstrādi, uzraudzību, labošanu un pārvaldību, ja tas neizdodas.
Kāpēc ģeneratīvajai mākslīgajam intelektam ir nepieciešama lielāka izstrādātāja atbildība nekā parastajai programmatūrai?
Tradicionālās kļūdas bieži vien ir acīmredzamas, taču ģeneratīvā mākslīgā intelekta kļūmes var šķist noslīpētas, vienlaikus joprojām būdamas nepareizas, neobjektīvas vai riskantas. Tas apgrūtina problēmu pamanīšanu un lietotājiem ir vieglāk tām uzticēties kļūdas dēļ. Izstrādātāji strādā ar varbūtības sistēmām, tāpēc atbildība ietver nenoteiktības pārvaldīšanu, kaitējuma ierobežošanu un sagatavošanos neparedzamiem rezultātiem pirms palaišanas.
Kā izstrādātāji zina, kad nevajadzētu izmantot ģeneratīvo mākslīgo intelektu?
Bieži vien sākumpunkts ir jautājums, vai uzdevums ir bezgalīgs vai arī to labāk veikt ar noteikumiem, meklēšanu vai standarta programmatūras loģiku. Izstrādātājiem jāapsver arī tas, cik lielu kaitējumu varētu nodarīt nepareiza atbilde un vai cilvēks var reāli pārskatīt rezultātus. Atbildīga lietošana dažkārt nozīmē lēmumu vispār neizmantot ģeneratīvo mākslīgo intelektu.
Kā izstrādātāji var samazināt halucinācijas un nepareizas atbildes ģeneratīvajās mākslīgā intelekta sistēmās?
Precizitāte ir jāprojektē, nevis jāpieņem. Daudzos procesos tas nozīmē izvades datu iezemēšanu uzticamos avotos, ģenerēta teksta atdalīšanu no pārbaudītiem faktiem un pārskatīšanas darbplūsmu izmantošanu augstāka riska uzdevumiem. Izstrādātājiem vajadzētu arī pārbaudīt uzvednes, kuru mērķis ir mulsināt vai maldināt sistēmu, īpaši tādās jomās kā kods, atbalsts, finanses, izglītība un veselības aprūpe.
Kāda ir izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu, atbildība par privātumu un sensitīviem datiem?
Izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu, pienākums ietver modelī ievadīto datu skaita samazināšanu un uzvedņu, žurnālu un izvades datu apstrādi kā sensitīvu. Izstrādātājiem, ja iespējams, jānoņem identifikatori, jāierobežo datu saglabāšana, jākontrolē piekļuve un rūpīgi jāpārskata pārdevēja iestatījumi. Lietotājiem arī jāspēj saprast, kā tiek apstrādāti viņu dati, nevis vēlāk atklāt riskus.
Kā izstrādātājiem vajadzētu rīkoties ar neobjektivitāti un taisnīgumu ģeneratīvā mākslīgā intelekta rezultātos?
Darbam ar neobjektivitāti nepieciešama aktīva izvērtēšana, nevis pieņēmumi. Praktiska pieeja ir pārbaudīt uzvednes dažādās demogrāfiskajās grupās, valodās un kontekstos, pēc tam pārskatīt rezultātus, lai noteiktu stereotipus, izslēgšanu vai nevienmērīgus kļūmju modeļus. Izstrādātājiem vajadzētu arī radīt veidus, kā lietotāji vai komandas var ziņot par kaitīgu uzvedību, jo sistēma kopumā var šķist spēcīga, tomēr pastāvīgi pieviļ noteiktas grupas.
Kādi drošības riski izstrādātājiem jāņem vērā, izmantojot ģeneratīvo mākslīgo intelektu?
Ģeneratīvais mākslīgais intelekts ievieš jaunas uzbrukuma virsmas, tostarp tūlītēju injekciju, nedrošu rīku lietošanu, datu noplūdi konteksta dēļ un automatizētu darbību ļaunprātīgu izmantošanu. Izstrādātājiem ir jādezinficē neuzticama ievade, jāierobežo rīku atļaujas, jāierobežo piekļuve failiem un tīklam, kā arī jāuzrauga ļaunprātīgas izmantošanas modeļi. Drošība nav saistīta tikai ar saskarni; tā attiecas uz visu darbplūsmu ap modeli.
Kāpēc, veidojot ar ģeneratīvo mākslīgo intelektu, ir svarīga caurspīdīgums?
Lietotājiem ir skaidri jāzina, kad ir iesaistīta mākslīgā intelekta (MI) darbība, ko tā spēj paveikt un kādas ir tās robežas. Laba pārredzamība var ietvert tādus apzīmējumus kā MI ģenerēts vai MI atbalstīts, vienkāršus skaidrojumus un skaidrus ceļus uz cilvēku atbalstu. Šāda veida atklātība nevājina produktu; tā palīdz lietotājiem kalibrēt uzticēšanos un pieņemt labākus lēmumus.
Kurš ir atbildīgs, ja ģeneratīvā mākslīgā intelekta funkcija nodara kaitējumu vai kaut kas neizdodas?
Izstrādātāji un produktu komandas joprojām ir atbildīgas par rezultātu, pat ja modelis sniedz atbildi. Tas nozīmē, ka ir jābūt skaidrai atbildībai par ieviešanas apstiprināšanu, incidentu apstrādi, atcelšanu, uzraudzību un saziņu ar lietotājiem. Ar "modeli, ko pieņēma lēmums" nepietiek, jo atbildībai ir jāpaliek tiem cilvēkiem, kas izstrādāja un palaida sistēmu.
Kā izskatās atbildīga ģeneratīvā mākslīgā intelekta izstrāde pēc palaišanas?
Atbildīga izstrāde turpinās arī pēc izlaišanas, izmantojot uzraudzību, atgriezenisko saiti, pārskatīšanu un labošanu. Spēcīgas sistēmas ir auditējamas, pārtraucamas, atjaunojamas un izstrādātas ar rezerves ceļiem, ja mākslīgais intelekts neizdodas. Mērķis nav pilnība; tas ir kaut kā tāda izveide, ko var droši pārbaudīt, uzlabot un pielāgot, kad rodas reālas problēmas.
Atsauces
-
Nacionālais standartu un tehnoloģiju institūts (NIST) — NIST GenAI profils — nvlpubs.nist.gov
-
OWASP — OWASP 10 labākie LLM pieteikumi — owasp.org
-
Informācijas komisāra birojs (ICO) — ICO astoņi jautājumi par ģeneratīvo mākslīgo intelektu — ico.org.uk