Kāda ir izstrādātāju atbildība, izmantojot ģeneratīvo mākslīgo intelektu?

Kāda ir izstrādātāju atbildība, izmantojot ģeneratīvo mākslīgo intelektu?

Īsa atbilde: Izstrādātāji, kas izmanto ģeneratīvo mākslīgo intelektu (MI), ir atbildīgi par visu sistēmu, ne tikai par modeļa rezultātu. Kad MI ietekmē lēmumus, kodu, privātumu vai lietotāju uzticēšanos, viņiem ir jāizvēlas drošas lietojumprogrammas, jāpārbauda rezultāti, jāaizsargā dati, jāsamazina kaitējums un jānodrošina, ka cilvēki var pārskatīt, ignorēt un labot kļūdas.

Galvenie secinājumi:

Verifikācija : apstrādāt noslīpētus rezultātus kā neuzticamus, līdz tos apstiprina avoti, testi vai cilvēku veikta pārskatīšana.

Datu aizsardzība : samaziniet tūlītēju datu apjomu, noņemiet identifikatorus un nodrošiniet žurnālus, piekļuves kontroles un piegādātājus.

Taisnīgums : veiciet testus dažādās demogrāfiskajās grupās un kontekstos, lai atklātu stereotipus un nevienmērīgus neveiksmju modeļus.

Caurspīdīgums : Skaidri marķējiet mākslīgā intelekta izmantošanu, izskaidrojiet tā ierobežojumus un piedāvājiet cilvēkam veikt pārskatīšanu vai apelāciju.

Atbildība : pirms palaišanas piešķiriet skaidrus izvietošanas, incidentu, uzraudzības un atcelšanas īpašniekus.

Kāda ir izstrādātāju atbildība, izmantojot ģeneratīvo mākslīgo intelektu? Infografika

Raksti, kurus jūs varētu vēlēties izlasīt pēc šī raksta:

🔗 Labākie mākslīgā intelekta rīki programmatūras izstrādātājiem: labākie mākslīgā intelekta darbināmie kodēšanas palīgi
Salīdziniet labākos mākslīgā intelekta kodēšanas palīgus ātrākām un tīrākām izstrādes darbplūsmām.

🔗 10 labākie mākslīgā intelekta rīki izstrādātājiem produktivitātes uzlabošanai
Izstrādātāju mākslīgā intelekta rīku rangu saraksts gudrākai kodēšanai un ātrumam.

🔗 Kāpēc mākslīgais intelekts var kaitēt sabiedrībai un uzticībai
Izskaidro reālās pasaules kaitējumu: aizspriedumus, privātumu, darba vietas un dezinformācijas riskus.

🔗 Vai mākslīgais intelekts ir aizgājis par tālu svarīgu lēmumu pieņemšanā?
Nosaka, kad mākslīgais intelekts pārkāpj robežas: novērošana, dziļviltojums, pārliecināšana, piekrišanas neesamība.

Kāpēc izstrādātāju atbildība, izmantojot ģeneratīvo mākslīgo intelektu, ir svarīgāka, nekā cilvēki domā

Daudz programmatūras kļūdu ir kaitinošas. Poga salūzt. Lapa ielādējas lēni. Kaut kas avarē, un visi vaid.

Ģeneratīvā mākslīgā intelekta problēmas var būt dažādas. Tās var būt nemanāmas.

Modelis var šķist pārliecināts, vienlaikus kļūdoties. NIST GenAI profils Tas var reproducēt neobjektivitāti bez acīmredzamām brīdinājuma zīmēm. NIST GenAI profils Tas var atklāt sensitīvus datus, ja tos izmanto neuzmanīgi. OWASP 10 labākie jautājumi LLM lietojumprogrammām ICO astoņi jautājumi par ģeneratīvo mākslīgo intelektu Tas var ģenerēt kodu, kas darbojas — līdz brīdim, kad tas neizdodas ražošanā kādā dziļi apkaunojošā veidā. OWASP 10 labākie jautājumi LLM lietojumprogrammām Līdzīgi kā pieņemt darbā ļoti entuziastisku praktikantu, kurš nekad neguļ un laiku pa laikam izdomā faktus ar satriecošu pārliecību.

Tāpēc izstrādātāju atbildība, izmantojot ģeneratīvo mākslīgo intelektu (AI), ir lielāka nekā vienkārša ieviešana. Izstrādātāji vairs neveido tikai loģiskas sistēmas. Viņi veido varbūtības sistēmas ar izplūdušām malām, neparedzamiem rezultātiem un reālām sociālām sekām. NIST AI RMF (minimālais mākslīgā intelekta modelis).

Tas nozīmē, ka atbildība ietver:

Ziniet, kā tas notiek — kad rīks šķiet maģisks, cilvēki pārstāj to apšaubīt. Izstrādātāji nevar atļauties būt tik atslābināti.

Kas veido labu izstrādātāju atbildības versiju, izmantojot ģeneratīvo mākslīgo intelektu (MI)? 🛠️

Laba atbildības versija nav performatīva. Tā nav tikai atrunas pievienošana apakšā un tā nosaukšana par ētiku. Tā parādās dizaina izvēlēs, testēšanas paradumos un produkta uzvedībā.

Lūk, kā parasti izskatās izstrādātāju atbildības versija, izmantojot ģeneratīvo mākslīgo intelektu

Ja tas izklausās daudz, tad... tā tas arī ir. Bet tāda ir situācija, strādājot ar tehnoloģijām, kas var ietekmēt lēmumus, uzskatus un uzvedību plašā mērogā. ESAO mākslīgā intelekta principi.

Salīdzināšanas tabula — īss pārskats par izstrādātāju galveno atbildību, izmantojot ģeneratīvo mākslīgo intelektu 📋

Atbildības joma Kuru tas ietekmē Ikdienas izstrādātāja prakse Kāpēc tas ir svarīgi
Precizitāte un verifikācija lietotāji, komandas, klienti Pārskatīt rezultātus, pievienot validācijas slāņus, pārbaudīt malējos gadījumus Mākslīgais intelekts var darboties plūstoši un joprojām mežonīgi kļūdīties — tā ir aptuvena kombinācija (NIST GenAI profils).
Privātuma aizsardzība lietotāji, klienti, iekšējie darbinieki Samaziniet sensitīvu datu izmantošanu, meklējiet uzvednes, kontrolējiet žurnālus Kad noplūst privāti dati, zobu pasta vairs nav pieejama 😬 ICO astoņi jautājumi par ģeneratīvo mākslīgo intelektu (AI) , OWASP — 10 labākie jautājumi LLM lietojumprogrammām.
Aizspriedumi un taisnīgums nepietiekami pārstāvētas grupas, visi lietotāji patiesībā Revīzijas rezultāti, dažādu ievades datu pārbaude, drošības pasākumu regulēšana Kaitējums ne vienmēr ir skaļš — dažreiz tas ir sistemātisks un kluss. NIST GenAI profila ICO vadlīnijas par mākslīgo intelektu un datu aizsardzību.
Drošība uzņēmuma sistēmas, lietotāji Ierobežojiet piekļuvi modelim, aizsargājiet pret tūlītēju ievadīšanu, veiciet riskantas darbības smilškastē Viens gudrs uzbrukums var ātri sagraut uzticību OWASP Top 10 LLM lietojumprogrammām NCSC par mākslīgo intelektu un kiberdrošību
Caurspīdīgums gala lietotāji, regulatori, atbalsta komandas Skaidri apzīmējiet mākslīgā intelekta darbību, izskaidrojiet ierobežojumus, dokumentējiet lietošanu Cilvēkiem ir tiesības zināt, kad mašīna palīdz. ESAO mākslīgā intelekta principu prakses kodekss par mākslīgā intelekta ģenerēta satura marķēšanu un etiķetēšanu.
Atbildība produktu īpašnieki, juridiskie darbinieki, izstrādātāju komandas Definēt atbildību, incidentu apstrādi, eskalācijas ceļus “Mākslīgais intelekts to izdarīja” nav pieauguša cilvēka atbilde. ESAO mākslīgā intelekta principi.
Uzticamība ikviens, kas pieskaras produktam Uzraugiet kļūmes, iestatiet ticamības sliekšņus, izveidojiet rezerves loģiku Modeļi novirzās, negaidīti neizdodas un laiku pa laikam piedzīvo dramatisku nelielu epizodi. NIST AI RMF NCSC drošas AI vadlīnijas.
Lietotāja labsajūta neaizsargāti lietotāji, īpaši Izvairieties no manipulatīva dizaina, ierobežojiet kaitīgus rezultātus, pārskatiet augsta riska lietošanas gadījumus Tas, ka kaut ko var ģenerēt, nenozīmē, ka tam jābūt saskaņā ar ESAO mākslīgā intelekta principiem, NIST mākslīgā intelekta RMF.

Nedaudz nevienmērīgs galds, protams, bet tas atbilst tēmai. Arī īstā atbildība ir nevienmērīga.

Atbildība sākas jau pirms pirmā aicinājuma — pareizā lietošanas gadījuma izvēle 🎯

Viena no lielākajām izstrādātāju atbildībām ir izlemt, vai vispār vajadzētu izmantot ģeneratīvo mākslīgo intelektu . NIST AI RMF

Tas izklausās acīmredzami, taču tas visu laiku tiek izlaists. Komandas ierauga modeli, sajūsminās un sāk to iespiest darbplūsmās, kuras labāk varētu apstrādāt ar noteikumiem, meklēšanu vai parastu programmatūras loģiku. Ne katrai problēmai ir nepieciešams valodas modelis. Dažām problēmām ir nepieciešama datubāze un klusa pēcpusdiena.

Pirms būvniecības uzsākšanas attīstītājiem jāuzdod šādi jautājumi:

  • Vai uzdevums ir bezgalīgs vai deterministisks?

  • Vai nepareiza izvade varētu radīt kaitējumu?

  • Vai lietotājiem ir nepieciešama radošums, prognozēšana, apkopošana, automatizācija — vai tikai ātrums?

  • Vai cilvēki pārāk uzticēsies rezultātiem? NIST GenAI profils

  • Vai cilvēks var reālistiski pārskatīt rezultātus? ESAO mākslīgā intelekta principi

  • Kas notiek, ja modelis ir nepareizs? ESAO mākslīgā intelekta principi

Atbildīgs attīstītājs ne tikai jautā: "Vai mēs varam to uzbūvēt?" Viņš jautā: "Vai tas būtu jābūvē šādi?" NIST AI RMF

Šis jautājums pats par sevi novērš daudz spožu muļķību.

Precizitāte ir atbildība, nevis papildu funkcija ✅

Būsim atklāti — viens no lielākajiem ģeneratīvā mākslīgā intelekta slazdiem ir daiļrunības sajaukšana ar patiesību. Modeļi bieži vien sniedz atbildes, kas izklausās noslīpētas, strukturētas un dziļi pārliecinošas. Kas ir jauki, līdz saturs kļūst par muļķībām, kas ietītas konfidencialitātē. NIST GenAI profils

Tātad izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu, atbildība ietver arī izveidi verifikācijai.

Tas nozīmē:

Tam ir liela nozīme tādās jomās kā:

  • veselības aprūpe

  • finanses

  • juridiskās darbplūsmas

  • izglītība

  • klientu atbalsts

  • uzņēmuma automatizācija

  • koda ģenerēšana

Piemēram, ģenerēts kods var izskatīties sakārtots, vienlaikus slēpjot drošības trūkumus vai loģikas kļūdas. Izstrādātājs, kas to kopē akli, nav efektīvs — viņš vienkārši nodod risku ārpakalpojumā skaistākā formātā. OWASP 10 labākie LLM lietojumprogrammu autori NCSC par mākslīgo intelektu un kiberdrošību

Modelis var palīdzēt. Izstrādātājs joprojām pieder rezultātam. ESAO mākslīgā intelekta principi.

Privātums un datu pārvaldība nav apspriežama 🔐

Šeit lietas ātri kļūst nopietnas. Ģeneratīvās mākslīgā intelekta sistēmas bieži vien izmanto uzvednes, žurnālus, konteksta logus, atmiņas slāņus, analītiku un trešo pušu infrastruktūru. Tas rada daudzas iespējas sensitīviem datiem noplūst, saglabāties vai tikt atkārtoti izmantoti veidos, ko lietotāji nekad nav gaidījuši. ICO astoņi jautājumi par ģeneratīvo mākslīgo intelektu: OWASP Top 10 LLM lietojumprogrammām.

Izstrādātājiem ir pienākums aizsargāt:

  • personiskā informācija

  • finanšu uzskaite

  • medicīniskā informācija

  • uzņēmuma iekšējie dati

  • komercnoslēpumi

  • autentifikācijas žetoni

  • klientu komunikācija

Atbildīga prakse ietver:

Šī ir viena no tām jomām, kur "mēs aizmirsām par to padomāt" nav mazsvarīga kļūda. Tā ir uzticību graujoša neveiksme.

Un uzticība, reiz saplaisājusi, izplatās kā nokritusi glāze. Varbūt ne pati glītākā metafora, bet jūs sapratāt.

Aizspriedumi, taisnīgums un pārstāvniecība — klusākie pienākumi ⚖️

Ģeneratīvajā mākslīgajā intelektā aizspriedumi reti ir multfilmas ļaundaris. Parasti tie ir daudz viltīgāki. Modelis var radīt stereotipizētus darba pienākumu aprakstus, nevienmērīgus moderācijas lēmumus, nesamērīgus ieteikumus vai kulturāli šaurus pieņēmumus, neizraisot acīmredzamas trauksmes signālus. NIST GenAI profils

Tāpēc izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu, atbildība ietver aktīvu darbu taisnīguma jomā.

Izstrādātājiem vajadzētu:

Sistēma kopumā var šķist labi darbojošamies, bet vienlaikus dažiem lietotājiem tā var kalpot sliktāk nekā citiem. Tas nav pieņemami tikai tāpēc, ka vidējā veiktspēja informācijas panelī izskatās labi. ICO vadlīnijas par mākslīgo intelektu un datu aizsardzību NIST GenAI profils.

Un jā, taisnīgums ir grūtāks par kārtīgu kontrolsarakstu. Tajā ir spriedums. Konteksts. Kompromisi. Arī zināma diskomforta pakāpe. Bet tas neatbrīvo no atbildības – tas to apstiprina. ICO vadlīnijas par mākslīgo intelektu un datu aizsardzību.

Drošība tagad ir daļēji tūlītēja projektēšana, daļēji inženiertehniskā disciplīna 🧱

Ģeneratīvā mākslīgā intelekta drošība ir savs īpatnējs zvērs. Tradicionālo lietotņu drošība, protams, joprojām ir svarīga, taču mākslīgā intelekta sistēmas pievieno neparastas uzbrukuma virsmas: tūlītēja injekcija, netieša tūlītēja manipulācija, nedroša rīku izmantošana, datu noplūde caur kontekstu un modeļa ļaunprātīga izmantošana, izmantojot automatizētas darbplūsmas. OWASP 10 labākie LLM lietojumprogrammām NCSC par mākslīgo intelektu un kiberdrošību.

Izstrādātāji ir atbildīgi par visas sistēmas, ne tikai saskarnes, drošību. NCSC drošas mākslīgā intelekta vadlīnijas.

Galvenie pienākumi šeit ir šādi:

Viena nepatīkama patiesība ir tāda, ka lietotāji — un uzbrucēji — noteikti izmēģinās lietas, ko izstrādātāji negaidīja. Daži ziņkārības dēļ, daži ļaunprātības dēļ, daži tāpēc, ka pulksten divos naktī noklikšķināja uz nepareizās lietas. Tā gadās.

Ģeneratīvā mākslīgā intelekta drošība vairāk līdzinās ļoti runīga vārtu sarga pārvaldīšanai, kuru dažreiz apmāna frāzes.

Caurspīdīgums un lietotāju piekrišana ir svarīgāka par košu lietotāja pieredzi 🗣️

Kad lietotāji mijiedarbojas ar mākslīgo intelektu (MI), viņiem tas ir jāzina. ESAO MI principu prakses kodekss par MI ģenerēta satura marķēšanu un etiķetēšanu.

Ne gluži neskaidri. Ne gluži vārdos aprakts. Skaidri un nepārprotami.

Izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu (MI), atbildības pamatelements ir nodrošināt, lai lietotāji saprastu:

Caurspīdīgums nav domāts lietotāju biedēšanai. Tā ir domāta viņu cieņai.

Laba pārredzamība var ietvert:

Daudzas produktu komandas uztraucas, ka godīgums padarīs funkciju mazāk maģisku. Varbūt. Taču viltus pārliecība ir vēl ļaunāka. Vienmērīgs interfeiss, kas slēpj risku, būtībā ir noslīpēta apjukuma sajūta.

Izstrādātāji joprojām ir atbildīgi — pat ja modelis “pieņem lēmumu” 👀

Šai daļai ir liela nozīme. Atbildību nevar uzticēt modeļa piegādātājam, modeļa kartei, uzvednes veidnei vai mašīnmācīšanās noslēpumainajai atmosfērai. ESAO AI principi , NIST AI RMF.

Izstrādātāji joprojām ir atbildīgi. ESAO mākslīgā intelekta principi

Tas nozīmē, ka kādam komandas dalībniekam vajadzētu piederēt:

Jābūt skaidrām atbildēm uz tādiem jautājumiem kā:

Bez atbildības sajūtas atbildība pārvēršas miglā. Visi pieņem, ka kāds cits to dara... un tad neviens to nedara.

Patiesībā šis modelis ir vecāks nekā mākslīgais intelekts. Mākslīgais intelekts to vienkārši padara bīstamāku.

Atbildīgi izstrādātāji veido, lai labotu, nevis pilnveidotu 🔄

Šeit ir mazs pavērsiens visā šajā: atbildīgas mākslīgā intelekta izstrādes mērķis nav izlikties, ka sistēma būs perfekta. Tā ir pieņešana, ka tā kaut kādā veidā neizdosies, un izstrāde, ņemot vērā šo realitāti. NIST AI RMF

Tas nozīmē tādu produktu izstrādi, kas ir:

Lūk, kā izskatās briedums. Nevis spožas demonstrācijas. Nevis elpu aizraujoši mārketinga teksti. Īstas sistēmas ar drošības barjerām, žurnāliem, atbildību un pietiekamu pazemību, lai atzītu, ka mašīna nav burvis. NCSC drošas mākslīgā intelekta vadlīnijas, ESAO mākslīgā intelekta principi.

Jo tas tā nav. Tas ir instruments. Spēcīgs, jā. Bet tomēr instruments.

Noslēguma pārdomas par izstrādātāju atbildību, izmantojot ģeneratīvo mākslīgo intelektu 🌍

Tātad, kāda ir izstrādātāju atbildība, izmantojot ģeneratīvo mākslīgo intelektu ?

Tas nozīmē veidot ar rūpību. Apšaubīt, kur sistēma palīdz un kur tā kaitē. Aizsargāt privātumu. Pārbaudīt neobjektivitāti. Pārbaudīt rezultātus. Nodrošināt darbplūsmu. Būt caurspīdīgam pret lietotājiem. Saglabāt cilvēkiem jēgpilnu kontroli. Uzņemties atbildību, ja kaut kas noiet greizi. NIST AI RMF OECD AI principi

Tas var izklausīties sarežģīti – un tā tas arī ir. Taču tas arī atšķir pārdomātu izstrādi no neapdomīgas automatizācijas.

Labākie izstrādātāji, kas izmanto ģeneratīvo mākslīgo intelektu (MI), nav tie, kas liek modelim veikt visvairāk triku. Viņi ir tie, kas saprot šo triku sekas un attiecīgi izstrādā dizainu. Viņi zina, ka ātrums ir svarīgs, bet uzticēšanās ir īstais produkts. Savādi, ka šī vecmodīgā ideja joprojām ir aktuāla. NIST MI RMF

Galu galā atbildība nav šķērslis inovācijām. Tā ir tā, kas neļauj inovācijām pārvērsties dārgā, turbulentā izplešanās procesā ar noslīpētu saskarni un uzticēšanās problēmām 😬✨

Un varbūt tā ir vienkāršākā versija.

Būvējiet drosmīgi, protams, bet būvējiet tā, it kā cilvēki tiktu ietekmēti, jo tas tā arī ir. ESAO mākslīgā intelekta principi

Bieži uzdotie jautājumi

Kāda ir izstrādātāju atbildība, kuri praksē izmanto ģeneratīvo mākslīgo intelektu?

Izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu, atbildība sniedzas daudz tālāk par funkciju ātru piegādi. Tā ietver pareizā lietošanas gadījuma izvēli, rezultātu testēšanu, privātuma aizsardzību, kaitīgas uzvedības samazināšanu un sistēmas saprotamības nodrošināšanu lietotājiem. Praksē izstrādātāji joprojām ir atbildīgi par rīka izstrādi, uzraudzību, labošanu un pārvaldību, ja tas neizdodas.

Kāpēc ģeneratīvajai mākslīgajam intelektam ir nepieciešama lielāka izstrādātāja atbildība nekā parastajai programmatūrai?

Tradicionālās kļūdas bieži vien ir acīmredzamas, taču ģeneratīvā mākslīgā intelekta kļūmes var šķist noslīpētas, vienlaikus joprojām būdamas nepareizas, neobjektīvas vai riskantas. Tas apgrūtina problēmu pamanīšanu un lietotājiem ir vieglāk tām uzticēties kļūdas dēļ. Izstrādātāji strādā ar varbūtības sistēmām, tāpēc atbildība ietver nenoteiktības pārvaldīšanu, kaitējuma ierobežošanu un sagatavošanos neparedzamiem rezultātiem pirms palaišanas.

Kā izstrādātāji zina, kad nevajadzētu izmantot ģeneratīvo mākslīgo intelektu?

Bieži vien sākumpunkts ir jautājums, vai uzdevums ir bezgalīgs vai arī to labāk veikt ar noteikumiem, meklēšanu vai standarta programmatūras loģiku. Izstrādātājiem jāapsver arī tas, cik lielu kaitējumu varētu nodarīt nepareiza atbilde un vai cilvēks var reāli pārskatīt rezultātus. Atbildīga lietošana dažkārt nozīmē lēmumu vispār neizmantot ģeneratīvo mākslīgo intelektu.

Kā izstrādātāji var samazināt halucinācijas un nepareizas atbildes ģeneratīvajās mākslīgā intelekta sistēmās?

Precizitāte ir jāprojektē, nevis jāpieņem. Daudzos procesos tas nozīmē izvades datu iezemēšanu uzticamos avotos, ģenerēta teksta atdalīšanu no pārbaudītiem faktiem un pārskatīšanas darbplūsmu izmantošanu augstāka riska uzdevumiem. Izstrādātājiem vajadzētu arī pārbaudīt uzvednes, kuru mērķis ir mulsināt vai maldināt sistēmu, īpaši tādās jomās kā kods, atbalsts, finanses, izglītība un veselības aprūpe.

Kāda ir izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu, atbildība par privātumu un sensitīviem datiem?

Izstrādātāju, kas izmanto ģeneratīvo mākslīgo intelektu, pienākums ietver modelī ievadīto datu skaita samazināšanu un uzvedņu, žurnālu un izvades datu apstrādi kā sensitīvu. Izstrādātājiem, ja iespējams, jānoņem identifikatori, jāierobežo datu saglabāšana, jākontrolē piekļuve un rūpīgi jāpārskata pārdevēja iestatījumi. Lietotājiem arī jāspēj saprast, kā tiek apstrādāti viņu dati, nevis vēlāk atklāt riskus.

Kā izstrādātājiem vajadzētu rīkoties ar neobjektivitāti un taisnīgumu ģeneratīvā mākslīgā intelekta rezultātos?

Darbam ar neobjektivitāti nepieciešama aktīva izvērtēšana, nevis pieņēmumi. Praktiska pieeja ir pārbaudīt uzvednes dažādās demogrāfiskajās grupās, valodās un kontekstos, pēc tam pārskatīt rezultātus, lai noteiktu stereotipus, izslēgšanu vai nevienmērīgus kļūmju modeļus. Izstrādātājiem vajadzētu arī radīt veidus, kā lietotāji vai komandas var ziņot par kaitīgu uzvedību, jo sistēma kopumā var šķist spēcīga, tomēr pastāvīgi pieviļ noteiktas grupas.

Kādi drošības riski izstrādātājiem jāņem vērā, izmantojot ģeneratīvo mākslīgo intelektu?

Ģeneratīvais mākslīgais intelekts ievieš jaunas uzbrukuma virsmas, tostarp tūlītēju injekciju, nedrošu rīku lietošanu, datu noplūdi konteksta dēļ un automatizētu darbību ļaunprātīgu izmantošanu. Izstrādātājiem ir jādezinficē neuzticama ievade, jāierobežo rīku atļaujas, jāierobežo piekļuve failiem un tīklam, kā arī jāuzrauga ļaunprātīgas izmantošanas modeļi. Drošība nav saistīta tikai ar saskarni; tā attiecas uz visu darbplūsmu ap modeli.

Kāpēc, veidojot ar ģeneratīvo mākslīgo intelektu, ir svarīga caurspīdīgums?

Lietotājiem ir skaidri jāzina, kad ir iesaistīta mākslīgā intelekta (MI) darbība, ko tā spēj paveikt un kādas ir tās robežas. Laba pārredzamība var ietvert tādus apzīmējumus kā MI ģenerēts vai MI atbalstīts, vienkāršus skaidrojumus un skaidrus ceļus uz cilvēku atbalstu. Šāda veida atklātība nevājina produktu; tā palīdz lietotājiem kalibrēt uzticēšanos un pieņemt labākus lēmumus.

Kurš ir atbildīgs, ja ģeneratīvā mākslīgā intelekta funkcija nodara kaitējumu vai kaut kas neizdodas?

Izstrādātāji un produktu komandas joprojām ir atbildīgas par rezultātu, pat ja modelis sniedz atbildi. Tas nozīmē, ka ir jābūt skaidrai atbildībai par ieviešanas apstiprināšanu, incidentu apstrādi, atcelšanu, uzraudzību un saziņu ar lietotājiem. Ar "modeli, ko pieņēma lēmums" nepietiek, jo atbildībai ir jāpaliek tiem cilvēkiem, kas izstrādāja un palaida sistēmu.

Kā izskatās atbildīga ģeneratīvā mākslīgā intelekta izstrāde pēc palaišanas?

Atbildīga izstrāde turpinās arī pēc izlaišanas, izmantojot uzraudzību, atgriezenisko saiti, pārskatīšanu un labošanu. Spēcīgas sistēmas ir auditējamas, pārtraucamas, atjaunojamas un izstrādātas ar rezerves ceļiem, ja mākslīgais intelekts neizdodas. Mērķis nav pilnība; tas ir kaut kā tāda izveide, ko var droši pārbaudīt, uzlabot un pielāgot, kad rodas reālas problēmas.

Atsauces

  1. Nacionālais standartu un tehnoloģiju institūts (NIST)NIST GenAI profilsnvlpubs.nist.gov

  2. OWASPOWASP 10 labākie LLM pieteikumiowasp.org

  3. Informācijas komisāra birojs (ICO)ICO astoņi jautājumi par ģeneratīvo mākslīgo intelektuico.org.uk

Atrodiet jaunāko mākslīgo intelektu oficiālajā mākslīgā intelekta palīgu veikalā

Par mums

Atpakaļ uz emuāru