Mākslīgais intelekts var šķist kā burvju triks, ko visi pārdomā, klusi domājot… pagaidiet, kā tas īsti darbojas? Labas ziņas. Mēs to atmaskosim bez liekvārdības, saglabāsim praktiskumu un iekļausim dažas nepilnīgas analoģijas, kas tomēr liek domāt, ka tas ir saprotams. Ja vēlaties tikai uzzināt būtību, pārejiet uz zemāk esošo vienas minūtes atbildi; bet, godīgi sakot, tieši detaļās ir īstā vieta, kur viss sākas 💡.
Raksti, kurus jūs varētu vēlēties izlasīt pēc šī raksta:
🔗 Ko nozīmē GPT?
Īss GPT akronīma un tā nozīmes skaidrojums.
🔗 Kur mākslīgais intelekts iegūst informāciju
Avoti, ko mākslīgais intelekts izmanto, lai mācītos, apmācītu un atbildētu uz jautājumiem.
🔗 Kā integrēt mākslīgo intelektu savā uzņēmumā
Praktiski soļi, rīki un darbplūsmas, lai efektīvi integrētu mākslīgo intelektu.
🔗 Kā dibināt mākslīgā intelekta uzņēmumu
No idejas līdz palaišanai: validācija, finansējums, komanda un izpilde.
Kā darbojas mākslīgais intelekts? Atbilde vienas minūtes laikā ⏱️
Mākslīgais intelekts apgūst modeļus no datiem, lai veiktu prognozes vai ģenerētu saturu — nav nepieciešami ar roku rakstīti noteikumi. Sistēma apkopo piemērus, ar zudumu funkcijas palīdzību mēra tās nepareizību un piespiež savas iekšējās pogas — parametrus —, lai katru reizi būtu nedaudz mazāk nepareizas. Atkārtojiet, uzlabojiet. Ar pietiekami daudz cikliem tas kļūst noderīgs. Tas pats stāsts neatkarīgi no tā, vai klasificējat e-pastus, konstatējat audzējus, spēlējat galda spēles vai rakstāt haiku. Lai iegūtu vienkāršā valodā pamatus "mašīnmācībā", IBM pārskats ir stabils [1].
Lielākā daļa mūsdienu mākslīgā intelekta ir mašīnmācīšanās. Vienkāršākā versija: ievadīt datus, apgūt atbilstību starp ievades un izvades datiem un pēc tam vispārināt uz jaunām lietām. Nevis maģija - matemātika, skaitļošana un, ja godīgi, šķipsniņa mākslas.
"Kā darbojas mākslīgais intelekts?" ✅
Kad cilvēki Google meklē "Kā darbojas mākslīgais intelekts?" , viņi parasti vēlas:
-
atkārtoti izmantojams mentālais modelis, kam viņi var uzticēties
-
galveno mācību veidu karte, lai žargons vairs nebūtu biedējošs
-
Ieskats neironu tīklos, neapmaldoties
-
Kāpēc šķiet, ka transformatori tagad vada pasauli
-
praktiskā procesa virzība no datiem līdz ieviešanai
-
ātra salīdzināšanas tabula, kuru var ekrānuzņēmumā saglabāt
-
ētikas, aizspriedumu un uzticamības aizsargbarjeras, kas nav nepārprotamas
To tu šeit iegūsi. Ja es klejoju, tas ir ar nolūku — piemēram, izvēloties gleznaino maršrutu un kaut kā labāk atceroties ielas nākamreiz. 🗺️
Lielākās daļas mākslīgā intelekta sistēmu galvenās sastāvdaļas 🧪
Iedomājieties mākslīgā intelekta sistēmu kā virtuvi. Četras sastāvdaļas parādās atkal un atkal:
-
Dati — piemēri ar vai bez etiķetēm.
-
Modelis — matemātiska funkcija ar regulējamiem parametriem.
-
Objektīvs — zaudējumu funkcija, kas mēra minējumu sliktumu.
-
Optimizācija — algoritms, kas maina parametrus, lai samazinātu zaudējumus.
Dziļajā mācīšanās procesā šis grūdiens parasti ir gradienta nolaišanās ar atpakaļizplatīšanos — efektīvs veids, kā noskaidrot, kurš poga uz gigantiskas skaņu plates čīkstēja, un pēc tam to nedaudz samazināt [2].
Mini gadījums: Mēs nomainījām trauslu, uz noteikumiem balstītu surogātpasta filtru ar nelielu, uzraudzītu modeli. Pēc nedēļas ilgas etiķešu, mērījumu un atjauninājumu ciklu izmantošanas samazinājās viltus pozitīvo rezultātu un atbalsta pieprasījumu skaits. Nekas īpašs — tikai skaidrāki mērķi (precizitāte attiecībā uz "šķiņķa" e-pastiem) un labāka optimizācija.
Mācīšanās paradigmas īsumā 🎓
-
Vadīta mācīšanās.
Jūs sniedzat ievades-izvades pārus (fotoattēlus ar etiķetēm, e-pastus, kas atzīmēti kā surogātpasts/nav surogātpasts). Modelis apgūst ievadi → izvadi. Daudzu praktisku sistēmu mugurkauls [1]. -
Nepārraudzīta mācīšanās.
Nav etiķešu. Atrodiet struktūras — klasterus, saspiešanas, latentus faktorus. Lieliski piemērots izpētei vai iepriekšējai apmācībai. -
Pašpārraudzīta mācīšanās.
Modelis izveido savas etiķetes (paredz nākamo vārdu, trūkstošo attēla ielāpu). Pārvērš neapstrādātus datus apmācības signālā plašā mērogā; ir pamatā mūsdienu valodas un redzes modeļiem. -
Pastiprināšanas mācīšanās.
Aģents rīkojas, vāc atlīdzības un apgūst politiku, kas palielina kumulatīvo atlīdzību. Ja “vērtību funkcijas”, “politikas” un “laika atšķirību mācīšanās” ir kaut kas īpašs, tā ir viņa mājas [5].
Jā, praksē kategorijas izplūst. Hibrīdmetodes ir normāla parādība. Reālā dzīve ir haotiska; laba inženierija ar to saskaras tur, kur tā ir.
Neironu tīkla iekšienē bez galvassāpēm 🧠
Neironu tīkls sakrauj sīku matemātisko vienību (neironu) slāņus. Katrs slānis pārveido ievades datus ar svariem, novirzēm un nevienmērīgu nelinearitāti, piemēram, ReLU vai GELU. Agrīnie slāņi apgūst vienkāršas funkcijas; dziļākie kodē abstrakcijas. "Maģija" - ja to tā var nosaukt - ir kompozīcija : savienojiet mazas funkcijas ķēdē, un jūs varat modelēt ārkārtīgi sarežģītas parādības.
Treniņu cikls, tikai vibrācijas:
-
minējums → kļūdas mērīšana → vainas piedēvēšana, izmantojot aizmugures balstu → svaru grūdiens → atkārtot.
Dariet to vairākās partijās, un, gluži kā neveikls dejotājs, kas uzlabo katru dziesmu, modelis pārstās kāpt jums uz kāju pirkstiem. Draudzīgu, stingru fonpropu skatiet [2].
Kāpēc transformatori pārņēma varu — un ko īsti nozīmē “uzmanība” 🧲
Transformatori izmanto pašvērtību , lai vienlaikus izvērtētu, kuras ievades daļas ir svarīgas viena otrai. Tā vietā, lai lasītu teikumu stingri no kreisās uz labo pusi, kā tas bija ar vecākiem modeļiem, transformatori var skatīties visur un dinamiski novērtēt attiecības — līdzīgi kā skenējot pārpildītu telpu, lai redzētu, kurš runā ar kuru.
Šis dizains atteicās no rekurences un konvolūcijas secību modelēšanā, nodrošinot ievērojamu paralēlismu un izcilu mērogojamību. Rakstā, ar kuru tas tika aizsākts — Attention Is All You Need — ir izklāstīta arhitektūra un rezultāti [3].
Pašuzmanība vienā rindā: izveidojiet vaicājuma , atslēgas un vērtību vektorus katram marķierim; aprēķiniet līdzības, lai iegūtu uzmanības svarus; attiecīgi sajauciet vērtības. Izsmalcināts detaļās, elegants garā.
Uzmanību: Transformers dominē, nevis monopolizē. CNN, RNN un koku ansambļi joprojām uzvar noteiktos datu tipos un latentuma/izmaksu ierobežojumos. Izvēlieties darbam piemērotu arhitektūru, nevis ažiotāžu.
Kā darbojas mākslīgais intelekts? Praktiskais process, ko jūs faktiski izmantosiet 🛠️
-
Problēmas formulējums.
Ko jūs prognozējat vai ģenerējat, un kā tiks mērīti panākumi? -
Datu
apkopošana, nepieciešamības gadījumā marķēšana, tīrīšana un sadalīšana. Rēķinieties ar trūkstošajām vērtībām un robežgadījumiem. -
Modelēšana
Sāciet vienkārši. Bāzes līnijas (loģistiskā regresija, gradienta palielināšana vai neliels transformators) bieži vien pārspēj varonīgu sarežģītību. -
Apmācība
Izvēlieties mērķi, izvēlieties optimizētāju, iestatiet hiperparametrus. Atkārtojiet. -
Novērtēšana
Izmantojiet atlikšanas intervālus, savstarpēju validāciju un metrikas, kas saistītas ar jūsu patieso mērķi (precizitāte, F1, AUROC, BLEU, sarežģītība, latentums). -
Izvietošana.
Pasniedziet aiz API vai ieguliet lietotnē. Izsekojiet latentumu, izmaksas un caurlaidspēju. -
Uzraudzība un pārvaldība.
Novērošanas, taisnīguma, stabilitātes un drošības novērošana. NIST mākslīgā intelekta risku pārvaldības sistēma (GOVERN, MAP, MEASURE, MANAGE) ir praktisks kontrolsaraksts uzticamām sistēmām no sākuma līdz beigām [4].
Mini gadījums: Redzes modelis lieliski darbojās laboratorijā, bet, mainoties apgaismojumam, lauka apstākļos uzrādīja kļūdas. Ievades histogrammās novērotā nobīde; ātra palielināšana + precīza korekcija atjaunoja veiktspēju. Garlaicīgi? Jā. Efektīvi? Arī jā.
Salīdzināšanas tabula — pieejas, kam tās paredzētas, aptuvenās izmaksas, kāpēc tās darbojas 📊
Nepilnīgs apzināti: nedaudz nevienmērīgs frāzējums palīdz tam justies cilvēcīgi.
| Pieeja | Ideāla auditorija | Dārgs | Kāpēc tas darbojas / piezīmes |
|---|---|---|---|
| Uzraudzīta mācīšanās | Analītiķi, produktu komandas | zems–vidējs | Tiešas kartēšanas ievade→apzīmējums. Lieliski piemērots, ja pastāv apzīmējumi; veido daudzu izvietoto sistēmu mugurkaulu [1]. |
| Bez uzraudzības | Datu pētnieki, pētniecība un attīstība | zems | Atrod klasterus/kompresijas/latentos faktorus — labi piemērots atklāšanai un iepriekšējai apmācībai. |
| Pašuzraudzībā | Platformas komandas | vidējs | Izveido savas etiķetes no neapstrādātiem datu mērogiem, izmantojot aprēķinus un datus. |
| Pastiprināšanas mācīšanās | Robotika, operāciju izpēte | vidēji augsts | Apgūst politikas nostādnes no atlīdzības signāliem; skatiet Satona un Barto darbu, lai iepazītos ar kanonu [5]. |
| Transformatori | NLP, vīzija, multimodāls | vidēji augsts | Pašuzmanība uztver tālas darbības dziļumus un labi paralēli darbojas; skatīt oriģinālo rakstu [3]. |
| Klasiskā ML (koki) | Tabulāras biznesa lietotnes | zems | Lētas, ātras un bieži vien šokējoši spēcīgas strukturētu datu bāzes. |
| Uz noteikumiem balstīts/simbolisks | Atbilstība, deterministiska | ļoti zems | Caurspīdīga loģika; noderīga hibrīdos, ja nepieciešama auditējamība. |
| Novērtējums un risks | Ikviens | mainās | Izmantojiet NIST rīku GOVERN-MAP-MEASURE-MANAGE, lai tas būtu drošībā un noderīgs [4]. |
Cenas ziņā tuvojas datu marķēšanai + skaitļošanai + cilvēkiem + apkalpošanai.
Padziļināta izpēte 1 — zaudējumu funkcijas, gradienti un sīkie soļi, kas visu maina 📉
Iedomājieties taisnes pielāgošanu, lai prognozētu mājas cenu pēc izmēra. Jūs izvēlaties parametrus (w) un (b), prognozējat (\hat{y} = wx + b) un mērāt kļūdu ar vidējiem kvadrātiskajiem zaudējumiem. Slīpums norāda, kurā virzienā pārvietoties (w) un (b), lai visātrāk samazinātu zaudējumus — līdzīgi kā ejot lejup pa miglu, sajūtot, kurā virzienā zeme slīpa. Atjauniniet datus pēc katras partijas, un jūsu taisne pietuvosies realitātei.
Dziļajos tīklos tā ir tā pati dziesma, tikai ar lielāku joslu. Backprop efektīvi aprēķina, kā katra slāņa parametri ietekmēja galīgo kļūdu, lai jūs varētu pabīdīt miljoniem (vai miljardiem) pogu pareizajā virzienā [2].
Galvenās intuīcijas:
-
Zaudējums veido ainavu.
-
Gradienti ir jūsu kompass.
-
Mācīšanās ātrums ir soļa lielums — ja ir pārāk liels, tu ļodzīsies, ja ir pārāk mazs, tu snaudīsi.
-
Regularizācija neļauj iegaumēt apmācības komplektu kā papagailim ar perfektu atmiņu, bet bez izpratnes.
Padziļināta analīze 2 — iegulšana, aicinājumu ģenerēšana un atgūšana 🧭
Iegulšana kartē vārdus, attēlus vai vienumus vektoru telpās, kur līdzīgas lietas atrodas blakus viena otrai. Tas ļauj:
-
atrast semantiski līdzīgas rindkopas
-
spēka meklēšana, kas saprot nozīmi
-
pievienojiet atgūšanas paplašināto ģenerēšanu (RAG) , lai valodas modelis varētu meklēt faktus pirms rakstīšanas
Uzvedināšana ir veids, kā jūs vadāt ģeneratīvos modeļus — aprakstāt uzdevumu, sniedzat piemērus, nosakāt ierobežojumus. Iedomājieties to kā ļoti detalizētas specifikācijas rakstīšanu ļoti ātram praktikantam: dedzīgam, reizēm pārāk pārliecinātam.
Praktisks padoms: ja jūsu modelim ir halucinācijas, pievienojiet atgūšanas funkciju, sašauriniet uzdevumu vai novērtējiet ar pamatotiem rādītājiem, nevis "vibrācijām".
Padziļināta analīze 3 — novērtējums bez ilūzijām 🧪
Labs vērtējums šķiet garlaicīgs — un tieši tas arī ir svarīgi.
-
Izmantojiet bloķētu testa komplektu.
-
Izvēlieties rādītāju, kas atspoguļo lietotāja sāpes.
-
Veiciet ablācijas, lai zinātu, kas patiesībā palīdzēja.
-
Žurnāla kļūmes ar reāliem, sarežģītiem piemēriem.
Ražošanā uzraudzība ir novērtēšana, kas nekad nebeidzas. Notiek novirzes. Parādās jauns slengs, sensori tiek pārkalibrēti, un vakardienas modelis nedaudz slīd. NIST ietvars ir praktisks atsauces materiāls pastāvīgai risku pārvaldībai un pārvaldībai, nevis politikas dokuments, ko nolikt plauktā [4].
Piezīme par ētiku, aizspriedumiem un uzticamību ⚖️
Mākslīgā intelekta sistēmas atspoguļo savus datus un ieviešanas kontekstu. Tas rada riskus: neobjektivitāti, nevienmērīgas kļūdas dažādās grupās, trauslumu sadalījuma maiņas gadījumā. Ētiska izmantošana nav izvēles iespēja — tā ir likmes uz galda. NIST norāda uz konkrētu praksi: dokumentēt riskus un ietekmi, mērīt kaitīgu neobjektivitāti, veidot rezerves risinājumus un informēt cilvēkus, kad likmes ir augstas [4].
Betona kustības, kas palīdz:
-
apkopot daudzveidīgus, reprezentatīvus datus
-
novērtēt sniegumu dažādās apakšpopulācijās
-
dokumentu paraugu kartes un datu lapas
-
pievienot cilvēka uzraudzību, ja likmes ir augstas
-
izstrādāt drošības risinājumus, ja sistēma ir nenoteikta
Kā darbojas mākslīgais intelekts? Kā mentālo modeli, ko var atkārtoti izmantot 🧩
Kompakts kontrolsaraksts, ko var piemērot gandrīz jebkurai mākslīgā intelekta sistēmai:
-
Kāds ir mērķis? Prognozēšana, ranžēšana, ģenerēšana, kontrole?
-
No kurienes rodas mācīšanās signāls? Etiķetes, pašaprūpēti uzdevumi, atlīdzības?
-
Kāda arhitektūra tiek izmantota? Lineārais modelis, koku ansamblis, CNN, RNN, transformators [3]?
-
Kā tas tiek optimizēts? Gradienta nolaišanās variācijas/atbalsts [2]?
-
Kāds datu režīms? Maza marķēta kopa, nemarķēta teksta okeāns, simulēta vide?
-
Kādi ir atteices režīmi un drošības pasākumi? Neobjektivitāte, nobīde, halucinācijas, latentums, izmaksu kartēšana atbilstoši NIST GOVERN-MAP-MEASURE-MANAGE [4].
Ja varat atbildēt uz šiem jautājumiem, jūs būtībā saprotat sistēmu — pārējais ir ieviešanas detaļas un jomas zināšanas.
Ātri avoti, kurus vērts pievienot grāmatzīmēm 🔖
-
Mašīnmācīšanās koncepciju ievads vienkāršā valodā (IBM) [1]
-
Atpakaļpavairošana ar diagrammām un maigu matemātiku [2]
-
Transformatora raksts, kas mainīja secības modelēšanu [3]
-
NIST mākslīgā intelekta riska pārvaldības sistēma (praktiskā pārvaldība) [4]
-
Kanoniskā pastiprinājuma mācīšanās mācību grāmata (bezmaksas) [5]
Bieži uzdotie jautājumi par zibens kārtu ⚡
Vai mākslīgais intelekts ir tikai statistika?
Tā ir statistika plus optimizācija, skaitļošana, datu inženierija un produktu dizains. Statistika ir skelets; pārējais ir muskuļi.
Vai lielāki modeļi vienmēr ir izdevīgāki?
Mērogošana palīdz, taču datu kvalitāte, novērtēšana un izvietošanas ierobežojumi bieži vien ir svarīgāki. Mazākais modelis, kas sasniedz jūsu mērķi, parasti ir vislabākais lietotājiem un makiem.
Vai mākslīgais intelekts var saprast?
Definējiet izpratni . Modeļi tver datu struktūru un iespaidīgi vispārina; taču tiem ir aklie punkti un tie var pārliecinoši kļūdīties. Izturieties pret tiem kā pret spēcīgiem instrumentiem, nevis gudrajiem.
Vai transformatoru ēra ir mūžīga?
Droši vien ne mūžīga. Tā tagad ir dominējoša, jo uzmanība labi paralēlizējas un mērogojas, kā parādīts sākotnējā rakstā [3]. Taču pētījumi turpina virzīties uz priekšu.
Kā darbojas mākslīgais intelekts? Pārāk garš, neizlasīju 🧵
-
Mākslīgais intelekts apgūst modeļus no datiem, samazina zudumus un vispārina jaunus ievades datus [1,2].
-
Galvenie apmācības veidi ir uzraudzīta, neuzraudzīta, pašapkalpošanās un pastiprinājuma mācīšanās; RL mācās no atlīdzības [5].
-
Neironu tīkli izmanto atpakaļizplatīšanos un gradienta nolaišanos, lai efektīvi pielāgotu miljoniem parametru [2].
-
Transformatori dominē daudzos secīgos uzdevumos, jo pašvērtība uztver attiecības paralēli mērogā [3].
-
Reālās pasaules mākslīgais intelekts ir process, kas aptver visu procesu — no problēmas formulēšanas līdz ieviešanai un pārvaldībai —, un NIST ietvars ļauj jums būt godīgiem attiecībā uz risku [4].
Ja kāds vēlreiz jautā: "Kā darbojas mākslīgais intelekts?" , jūs varat pasmaidīt, iemalkot kafiju un teikt: tas mācās no datiem, optimizē zaudējumus un atkarībā no problēmas izmanto tādas arhitektūras kā transformatori vai koku ansambļi. Tad piemetiet aci, jo tas ir gan vienkārši, gan nemanāmi pabeigti. 😉
Atsauces
[1] IBM — Kas ir mašīnmācīšanās?
lasīt vairāk
[2] Maikls Nīlsens — Kā darbojas atpakaļizplatīšanas algoritms
lasīt vairāk
[3] Vaswani et al. - Uzmanība ir viss, kas jums nepieciešams (arXiv)
lasīt vairāk
[4] NIST — Mākslīgā intelekta riska pārvaldības sistēma (AI RMF 1.0)
lasīt vairāk
[5] Sutton & Barto - Pastiprināšanas mācīšanās: ievads (2. izd.)
lasīt vairāk