Kāds ir Ģeneratīvā mākslīgā intelekta galvenais mērķis?

Kāds ir Ģeneratīvā mākslīgā intelekta galvenais mērķis?

Īsa atbilde: Ģeneratīvā mākslīgā intelekta galvenais mērķis ir radīt jaunu, ticamu saturu (tekstu, attēlus, audio, kodu un citus materiālus), apgūstot esošo datu modeļus un paplašinot tos, reaģējot uz aicinājumu. Tas vislabāk palīdz, ja nepieciešami ātri melnraksti vai vairākas variācijas, bet, ja svarīga ir faktu precizitāte, pievienojiet pamatojumu un pārskatiet.

Galvenie secinājumi:

Paaudze : Tā rada jaunus rezultātus, kas atspoguļo apgūtos modeļus, nevis saglabāto “patiesību”.

Pamatojums : Ja precizitāte ir svarīga, sasaistiet atbildes ar uzticamiem dokumentiem, citātiem vai datubāzēm.

Kontrolējamība : Izmantojiet skaidrus ierobežojumus (formātu, faktus, toni), lai vadītu rezultātus ar lielāku konsekvenci.

Aizsardzība pret ļaunprātīgu izmantošanu : pievienojiet drošības barjeras, lai bloķētu bīstamu, privātu vai neatļautu saturu.

Atbildība : apstrādāt rezultātus kā melnrakstus; reģistrēt, novērtēt un novirzīt augsta riska darbu cilvēkiem.

Raksti, kurus jūs varētu vēlēties izlasīt pēc šī raksta:

🔗 Kas ir ģeneratīvais mākslīgais intelekts
Izprotiet, kā modeļi veido tekstu, attēlus, kodu un citus elementus.

🔗 Vai mākslīgais intelekts ir pārspīlēts?
Sabalansēts skatījums uz ažiotāžu, ierobežojumiem un ietekmi uz reālo pasauli.

🔗 Kura mākslīgā intelekta metode ir piemērota tieši Jums?
Salīdziniet populārus mākslīgā intelekta rīkus un izvēlieties sev piemērotāko.

🔗 Vai pastāv mākslīgā intelekta burbulis?
Pazīmes, kas jāuzmana, tirgus riski un kas notiks tālāk.


Ģeneratīvā mākslīgā intelekta galvenais mērķis🧠

Ja vēlaties īsāko un precīzāko skaidrojumu:

  • Ģeneratīvais mākslīgais intelekts apgūst datu (valodas, attēlu, mūzikas, koda) “formu”

  • Pēc tam tas ģenerē jaunus paraugus , kas atbilst šai formai

  • Tas tiek darīts, reaģējot uz aicinājumu, kontekstu vai ierobežojumiem

Tātad, jā, tā var uzrakstīt rindkopu, uzgleznot attēlu, remiksēt melodiju, izstrādāt līguma klauzulu, ģenerēt testa gadījumus vai izstrādāt logotipam līdzīgu lietu.

Ne tāpēc, ka tas “saprot” tāpat kā cilvēks (par to mēs vēlāk runāsim), bet gan tāpēc, ka tas labi prot radīt rezultātus, kas statistiski un strukturāli atbilst apgūtajiem modeļiem.

Ja vēlaties pieaugušam cilvēkam saprotamu skaidrojumu tam, “kā to izmantot, neuzkāpjot uz grābekļiem”, NIST mākslīgā intelekta risku pārvaldības sistēma ir stabils pamats riska un kontroles domāšanai. [1] Un, ja vēlaties kaut ko īpaši pielāgotu ģeneratīvā mākslīgā intelekta riskiem (ne tikai mākslīgajam intelektam kopumā), NIST publicēja arī GenAI profilu, kurā sīkāk aplūkotas izmaiņas, kad sistēma ģenerē saturu. [2]

 

Ģeneratīvais mākslīgais intelekts

Kāpēc cilvēki strīdas par "ģeneratīvā mākslīgā intelekta galveno mērķi" 😬

Cilvēki runā viens otram garām, jo ​​lieto dažādas vārda “mērķis” nozīmes

Daži cilvēki domā:

  • Tehniskais mērķis: ģenerēt reālistiskus, saskaņotus rezultātus (pamats)

  • Biznesa mērķis: samazināt izmaksas, palielināt ražošanas apjomu, personalizēt pieredzi

  • Cilvēka mērķis: saņemt palīdzību ātrākai domāšanai, radīšanai vai saziņai

Un jā, tie saduras.

Ja mēs paliekam pie zemes, ģeneratīvā mākslīgā intelekta galvenais mērķis ir ģenerēšana — tāda satura radīšana, kāds iepriekš nepastāvēja, atkarīgu no ievades datiem.

Biznesa lietas ir lejup pa straumi. Kultūras panika arī ir lejup pa straumi (atvainojiet... kaut kā 😬).


Kāpēc cilvēki jauc GenAI (un kāpēc tas ir svarīgi) 🧯

Ātrs “ne šis” saraksts kliedē daudz neskaidrību :

GenAI nav datubāze

Tas "neatgūst patiesību". Tas ģenerē ticamus rezultātus. Ja jums ir nepieciešama patiesība, jūs pievienojat pamatojumu (dokumentus, datubāzes, citātus, cilvēka veiktu pārskatīšanu). Šī atšķirība būtībā ir viss uzticamības stāsts. [2]

GenAI ne vienmēr ir aģents

Modelis, kas ģenerē tekstu, nav tas pats, kas sistēma, kas var droši veikt darbības (sūtīt e-pastu, mainīt ierakstus, izvietot kodu). “Var ģenerēt instrukcijas” ≠ “tās jāizpilda”

GenAI nav nolūks

Tas var radīt saturu, kas izklausās pēc apzināta nodoma. Tas nav tas pats, kas apzināta rīcība.


Kas veido labu ģeneratīvā mākslīgā intelekta versiju? ✅

Ne visas “ģeneratīvās” sistēmas ir vienlīdz praktiskas. Laba ģeneratīvā mākslīgā intelekta versija nav tikai tāda, kas rada skaistus rezultātus — tā ir tāda, kas rada vērtīgus, kontrolējamus un pietiekami drošus konkrētajā kontekstā.

Labai versijai parasti ir:

  • Saskaņotība — tā nerunā pretī sev ik pēc diviem teikumiem

  • Zemējums — tas var sasaistīt rezultātus ar patiesības avotu (dokumentiem, citātiem, datubāzēm) 📌

  • Vadāmība — jūs varat kontrolēt toni, formātu, ierobežojumus (ne tikai vibrācijas veicināšanu)

  • Uzticamība — līdzīgas uzvednes dod līdzīgu kvalitāti, nevis ruletes rezultātus

  • Drošības sliedes — tās pēc konstrukcijas novērš bīstamas, privātas vai neatļautas izejas

  • Atklātības uzvedība — tā var teikt “Es neesmu pārliecināts”, nevis izdomāt

  • Darbplūsmas atbilstība — tā iekļaujas cilvēku darba veidā, nevis fantāzijas darbplūsmā

NIST būtībā visu šo sarunu raksturo kā “uzticamību + riska pārvaldību”, kas ir… nepievilcīga lieta, ko visi vēlētos izdarīt agrāk. [1][2]

Nepilnīga metafora (sagatavojieties): labs ģeneratīvs modelis ir kā ļoti ātrs virtuves palīgs, kurš var pagatavot jebko… bet dažreiz jauc sāli ar cukuru, un jums ir nepieciešama marķēšana un garšas pārbaudes, lai nepasniegtu deserta sautējumu 🍲🍰


Ātrs ikdienas mini-lietiņš (salikts, bet ļoti parasts) 🧩

Iztēlojieties atbalsta komandu, kas vēlas, lai GenAI izstrādātu atbildes:

  1. 1. nedēļa: “Ļaujiet modelim atbildēt uz pieprasījumiem.”

    • Izvade ir ātra, pārliecinoša… un dažreiz dārgi kļūdaina.

  2. 2. nedēļa: Viņi pievieno izguves funkciju (iegūst faktus no apstiprinātiem dokumentiem) + veidnes (“vienmēr jautāt konta ID”, “nekad nesola atmaksu” utt.).

    • Nepareizība samazinās, konsekvence uzlabojas.

  3. 3. nedēļa: Viņi pievieno pārskatīšanas joslu (cilvēka apstiprinājums augsta riska kategorijām) + vienkāršus novērtējumus (“citēta politika”, “ievēroti atmaksas noteikumi”).

    • Tagad sistēma ir izvietojama.

Šī progresēšana būtībā ir NIST praktiskā nostāja: modelis ir tikai viena daļa; tieši ap to esošie kontroles mehānismi padara to pietiekami drošu. [1][2]


Salīdzināšanas tabula — populāras ģeneratīvās iespējas (un kāpēc tās darbojas) 🔍

Cenas nepārtraukti mainās, tāpēc šī informācija apzināti paliek neskaidra. Turklāt: kategorijas pārklājas. Jā, tas ir kaitinoši.

Rīks/pieeja Auditorija Cena (aptuveni) Kāpēc tas darbojas (un neliela nianse)
Vispārīgie LLM tērzēšanas asistenti Visi, komandas Bezmaksas līmenis + abonements Lieliski piemērots melnrakstu veidošanai, kopsavilkumu veidošanai, prāta vētrai. Dažreiz pārliecinoši kļūdos… kā drosmīgs draugs 😬
API LLM programmām Izstrādātāji, produktu komandas Uz lietošanu balstīts Viegli integrējams darbplūsmās; bieži vien apvienojumā ar izguvi + rīkiem. Nepieciešamas margas, citādi kļūst pikantas
Attēlu ģeneratori (difūzijas stilā) Radītāji, tirgotāji Abonements/kredīti Spēcīgs stilā + variācijās; balstīts uz denoising stila ģenerēšanas modeļiem [5]
Atvērtā pirmkoda ģeneratīvie modeļi Hakeri, pētnieki Bezmaksas programmatūra + aparatūra Kontrole + pielāgošana, privātumam draudzīga iestatīšana. Taču jūs maksājat par iestatīšanas grūtībām (un GPU pārkaršanu)
Audio/mūzikas ģeneratori Mūziķi, hobiji Kredīti/abonementi Ātra ideju ģenerēšana melodijām, stīgām, skaņas dizainam. Licencēšana var būt mulsinoša (izlasiet noteikumus)
Video ģeneratori Radītāji, studijas Abonements/kredīti Ātri scenāriji un konceptuāli klipi. Saskaņotība starp ainām joprojām ir problēma
Izguves paplašinātā ģenerēšana (RAG) Uzņēmumi Infrastruktūra + izmantošana Palīdz sasaistīt ģenerēšanu ar jūsu dokumentiem; izplatīts kontroles līdzeklis "izdomātu lietu" samazināšanai [2]
Sintētisko datu ģeneratori Datu komandas Uzņēmējdarbības līmeņa Ērti, ja datu ir maz/sensitīvi; nepieciešama validācija, lai ģenerētie dati jūs nemaldinātu 😵

Zem pārsega: ģenerēšana būtībā ir “raksta pabeigšana” 🧩

Neromantiska patiesība:

Liela daļa ģeneratīvā mākslīgā intelekta ir “paredzēt, kas notiks tālāk”, kas tiek mērogota, līdz tā šķiet kā kaut kas cits.

  • Tekstā: ģenerēt nākamo teksta fragmentu (marķiera stilā) secībā — klasiskā autoregresīvā iestatīšana, kas padarīja mūsdienu uzvednes tik efektīvas [4]

  • Attēlos: sāciet ar troksni un iteratīvi no tā atbrīvojieties struktūrā (difūzijas saimes intuīcija) [5]

Tāpēc norādījumi ir svarīgi. Jūs piešķirat modelim daļēju paraugu, un tas to pabeidz.

Tāpēc arī ģeneratīvais mākslīgais intelekts var būt lieliski piemērots:

  • "Rakstiet to draudzīgākā tonī"

  • "Dodiet man desmit virsraksta variantus"

  • “Pārveidojiet šīs piezīmes par skaidru plānu”

  • “Ģenerēt sastatņu kodu + testus”

...un arī kāpēc tai var būt grūtības ar:

  • stingra faktu precizitāte bez pamatojuma

  • garas, trauslas spriešanas ķēdes

  • vienota identitāte daudzos izvades materiālos (personāži, zīmola balss, atkārtotas detaļas)

Tā nav “domāšana” kā cilvēkam. Tā ģenerē ticamus turpinājumus. Vērtīgi, bet citādi.


Radošuma debates — “radīšana” pret “remiksēšana” 🎨

Cilvēki šeit nesamērīgi uzkarst. Es to it kā saprotu.

Ģeneratīvais mākslīgais intelekts bieži rada rezultātus, kas šķiet radoši, jo tas var:

  • apvienot koncepcijas

  • ātri izpētiet variācijas

  • virsmas pārsteidzošas asociācijas

  • atdarināt stilus ar baisu precizitāti

Bet tam nav nodoma. Nav iekšējas gaumes. Nav sajūtas: “Es to izdarīju, jo tas man ir svarīgi.”

Tomēr neliels atkāpšanās punkts: arī cilvēki pastāvīgi miksē. Mēs to darām, balstoties uz dzīves pieredzi, mērķiem un gaumi. Tāpēc par etiķeti var strīdēties. Praktiski tā ir radošā ietekme , un tā ir vissvarīgākā daļa.


Sintētiskie dati — klusi nenovērtēts mērķis 🧪

Viena pārsteidzoši svarīga ģeneratīvā mākslīgā intelekta nozare ir tādu datu ģenerēšana, kas darbojas kā reāli dati, neatklājot reālas personas vai retus sensitīvus gadījumus.

Kāpēc tas ir vērtīgi:

  • privātuma un atbilstības ierobežojumi (mazāka reālu ierakstu pieejamība)

  • retu notikumu simulācija (krāpšanas malas gadījumi, nišas cauruļvada kļūmes utt.)

  • cauruļvadu testēšana, neizmantojot ražošanas datus

  • datu papildināšana, ja reālie datu kopumi ir mazi

Taču āķis paliek āķis: sintētiskie dati var nemanāmi reproducēt tās pašas neobjektivitātes un aklos punktus kā sākotnējie dati — tāpēc pārvaldībai un mērīšanai ir tikpat liela nozīme kā ģenerēšanai. [1][2][3]

Sintētiskie dati ir kā bezkofeīna kafija — tie izskatās labi, smaržo pareizi, bet dažreiz nedara to, ko biji iedomājies ☕🤷


Robežas — kādā ziņā ģeneratīvais mākslīgais intelekts ir slikts (un kāpēc) 🚧

Ja atceraties tikai vienu brīdinājumu, atcerieties šo:

Ģeneratīvie modeļi var radīt plūstošas ​​muļķības.

Biežāk sastopamie atteices režīmi:

  • Halucinācijas - pārliecināta faktu, citātu vai notikumu safabricēšana

  • Novecojušas zināšanas — modeļi, kas apmācīti ar momentuzņēmumiem, var palaist garām atjauninājumus.

  • Ātra trauslums — nelielas formulējuma izmaiņas var izraisīt lielas izlaides izmaiņas

  • Slēptā neobjektivitāte — modeļi, kas apgūti no sagrozītiem datiem

  • Pārmērīga paklausība — tā cenšas palīdzēt pat tad, kad tai nevajadzētu palīdzēt.

  • Nekonsekventa spriešana , īpaši garu uzdevumu gadījumā

Tieši tāpēc pastāv saruna par “uzticamu mākslīgo intelektu”: caurspīdīgums, atbildība, stabilitāte un uz cilvēku orientēts dizains nav kaut kas tāds, kas ir patīkami; tie ir veids, kā izvairīties no pārliecības lielgabala ieviešanas ražošanā. [1][3]


Panākumu mērīšana: zināt, kad mērķis ir sasniegts 📏

Ja ģeneratīvā mākslīgā intelekta galvenais mērķis ir “ģenerēt vērtīgu jaunu saturu”, tad panākumu rādītāji parasti iedalās divās grupās:

Kvalitātes rādītāji (cilvēka un automatizēti)

  • pareizība (attiecīgā gadījumā)

  • saskaņotība un skaidrība

  • stila atbilstība (tonis, zīmola balss)

  • pilnīgums (attiecas uz to, ko jūs pieprasījāt)

Darbplūsmas metrika

  • ietaupītais laiks katram uzdevumam

  • pārskatīšanas samazināšana

  • lielāka caurlaidspēja bez kvalitātes krituma

  • lietotāju apmierinātība (visizteiksmīgākais rādītājs, pat ja to ir grūti izmērīt)

Praksē komandas nonāca pie neveiklas patiesības:

  • modelis var ātri izveidot “pietiekami labus” melnrakstus

  • bet kvalitātes kontrole kļūst par jauno sašaurinājumu

Tātad patiesā uzvara nav tikai ģenerēšana. Tā ir ģenerēšana plus pārskatīšanas sistēmas — izguves pamatojums, novērtēšanas komplekti, reģistrēšana, sarkanās komandas veidošana, eskalācijas ceļi… visas nepievilcīgās lietas, kas to padara reālu. [2]


Praktiskas vadlīnijas “izmantojiet to bez nožēlas” 🧩

Ja izmantojat ģeneratīvo mākslīgo intelektu ne tikai ikdienišķai izklaidei, daži ieradumi ļoti palīdz:

  • Lūdziet struktūru: “Dodiet man numurētu plānu, pēc tam melnrakstu.”

  • Spēka ierobežojumi: “Izmantojiet tikai šos faktus. Ja trūkst, norādiet, kā trūkst.”

  • Pieprasījuma nenoteiktība: “Uzskaitiet pieņēmumus + pārliecību.”

  • Izmantojiet zemējumu: izveidojiet savienojumu ar dokumentiem/datubāzēm, kad fakti ir svarīgi [2]

  • Izvades rezultātus uztveriet kā melnrakstus: pat izcilus

Un vienkāršākais triks ir arī viscilvēcīgākais: izlasi to skaļi. Ja tas izklausās pēc dīvaina robota, kas cenšas atstāt iespaidu uz tavu vadītāju, iespējams, tas ir jārediģē 😅


Kopsavilkums 🎯

Ģeneratīvā mākslīgā intelekta galvenais mērķis ir ģenerēt jaunu saturu, kas atbilst uzvednei vai ierobežojumam , apgūstot modeļus no datiem un radot ticamus rezultātus.

Tas ir spēcīgs, jo tas:

  • paātrina rasēšanu un ideju ģenerēšanu

  • lēti reizina variācijas

  • palīdz pārvarēt prasmju trūkumus (rakstīšana, kodēšana, dizains)

Tas ir riskanti, jo:

  • var tekoši safabricēt faktus

  • pārmanto aizspriedumus un aklos punktus

  • nopietnos gadījumos nepieciešama iezemēšana un uzraudzība [1][2][3]

Labi izmantots, tas ir mazāk "aizvietošanas smadzeņu" un vairāk "iegremdējamā dzinēja ar turbokompresoru".
Slikti izmantots, tas ir pārliecības lielgabals, kas vērsts pret jūsu darbplūsmu... un tas ātri kļūst dārgi 💥


Bieži uzdotie jautājumi

Kāds ir ģeneratīvā mākslīgā intelekta galvenais mērķis ikdienas valodā?

Ģeneratīvā mākslīgā intelekta galvenais mērķis ir radīt jaunu, ticamu saturu — tekstu, attēlus, audio vai kodu —, pamatojoties uz modeļiem, ko tas apguvis no esošajiem datiem. Tas neizgūst “patiesību” no datubāzes. Tā vietā tas ģenerē rezultātus, kas statistiski atbilst iepriekš redzētajam, ko veido jūsu uzvedne un visi jūsu norādītie ierobežojumi.

Kā ģeneratīvais mākslīgais intelekts ģenerē jaunu saturu no uzvednes?

Daudzās sistēmās ģenerēšana darbojas līdzīgi kā modeļa pabeigšana mērogā. Tekstam modelis paredz, kas sekos secībā, radot saskaņotus turpinājumus. Attēliem difūzijas stila modeļi bieži sākas ar troksni un iteratīvi "novērš troksni" struktūras virzienā. Jūsu uzvedne kalpo kā daļēja veidne, un modelis to pabeidz.

Kāpēc ģeneratīvais mākslīgais intelekts dažreiz tik pārliecinoši izdomā faktus?

Ģeneratīvais mākslīgais intelekts ir optimizēts ticamu, plūstošu rezultātu ģenerēšanai, nevis faktuālās pareizības garantēšanai. Tāpēc tas var radīt pārliecinoši skanošas muļķības, safabricētas atsauces vai nepareizus notikumus. Ja precizitāte ir svarīga, parasti ir nepieciešams pamatojums (uzticami dokumenti, atsauces, datubāzes) un cilvēka veikta pārskatīšana, īpaši augsta riska vai klientu apkalpošanas darbiem.

Ko nozīmē “zemējums” un kad man to vajadzētu izmantot?

Zemējums nozīmē modeļa izvades savienošanu ar uzticamu patiesības avotu, piemēram, apstiprinātu dokumentāciju, iekšējām zināšanu bāzēm vai strukturētām datubāzēm. Zemējums jāizmanto vienmēr, kad ir svarīga faktu precizitāte, atbilstība politikai vai konsekvence — atbalsta atbildes, juridiskie vai finanšu melnraksti, tehniskās instrukcijas vai jebkas cits, kas varētu radīt taustāmu kaitējumu, ja tas ir nepareizi.

Kā padarīt ģeneratīvā mākslīgā intelekta rezultātus konsekventākus un kontrolējamākus?

Kontrolējamība uzlabojas, ja pievienojat skaidrus ierobežojumus: nepieciešamo formātu, atļautos faktus, norādījumus par toni un skaidrus “darāms/nedarāms” noteikumus. Noder veidnes (“Vienmēr jautājiet X”, “Nekad nesoliet Y”), kā arī strukturētas uzvednes (“Sniedziet numurētu plānu, pēc tam melnrakstu”). Lūgums modelim uzskaitīt pieņēmumus un nenoteiktību var arī samazināt pārāk pārliecinātas minēšanas.

Vai ģeneratīvais mākslīgais intelekts ir tas pats, kas aģents, kas var veikt darbības?

Nē. Modelis, kas ģenerē saturu, ne vienmēr ir sistēma, kurai jāveic tādas darbības kā e-pasta sūtīšana, ierakstu maiņa vai koda izvietošana. “Var ģenerēt instrukcijas” atšķiras no “droši tās palaist”. Ja pievienojat rīku lietošanu vai automatizāciju, parasti ir nepieciešamas papildu aizsargbarjeras, atļaujas, reģistrēšana un eskalācijas ceļi, lai pārvaldītu risku.

Kas padara ģeneratīvo mākslīgā intelekta sistēmu “labu” reālās darbplūsmās?

Laba sistēma ir vērtīga, kontrolējama un pietiekami droša savam kontekstam — ne tikai iespaidīga. Praktiski signāli ietver saskaņotību, uzticamību līdzīgos uzvednēs, saikni ar uzticamiem avotiem, drošības barjeras, kas bloķē neatļautu vai privātu saturu, un atklātību, ja tā ir neskaidra. Apkārtējā darbplūsma — pārskatīšanas joslas, novērtēšana un uzraudzība — bieži vien ir tikpat svarīga kā pats modelis.

Kādi ir lielākie ierobežojumi un atteices režīmi, no kuriem jāuzmanās?

Biežāk sastopamie kļūmju veidi ir halucinācijas, novecojušas zināšanas, tūlītēja trauslums, slēpta neobjektivitāte, pārmērīga atbilstība un nekonsekventa spriešana garu uzdevumu veikšanā. Risks palielinās, ja rezultātus uztverat kā pabeigtu darbu, nevis melnrakstus. Ražošanas vajadzībām komandas bieži pievieno izguves pamatojumu, novērtējumus, reģistrēšanu un cilvēka veiktu pārskatīšanu sensitīvām kategorijām.

Kad sintētisko datu ģenerēšana ir labs ģeneratīvā mākslīgā intelekta pielietojums?

Sintētiskie dati var palīdzēt, ja reāli dati ir ierobežoti, sensitīvi vai grūti koplietojami, un ja nepieciešama retu gadījumu simulācija vai droša testēšanas vide. Tie var samazināt reālu ierakstu pakļautību un atbalstīt datu plūsmas testēšanu vai papildināšanu. Taču tiem joprojām ir nepieciešama validācija, jo sintētiskie dati var reproducēt neobjektivitāti vai aklos punktus no sākotnējiem datiem.

Atsauces

[1] NIST AI RMF — MI risku un kontroles pārvaldības ietvars. lasīt vairāk
[2] NIST AI 600-1 GenAI profils — vadlīnijas par GenAI specifiskiem riskiem un mazināšanas pasākumiem (PDF). lasīt vairāk
[3] ESAO AI principi — augsta līmeņa principu kopums atbildīgam MI. lasīt vairāk
[4] Brown et al. (NeurIPS 2020) — pamatdokuments par dažu kadru uzvednēm ar lieliem valodu modeļiem (PDF). lasīt vairāk
[5] Ho et al. (2020) — difūzijas modeļa dokuments, kurā aprakstīta uz trokšņu slāpēšanu balstīta attēlu ģenerēšana (PDF). lasīt vairāk

Atrodiet jaunāko mākslīgo intelektu oficiālajā mākslīgā intelekta palīgu veikalā

Par mums

Atpakaļ uz emuāru