Īsā atbilde: Lielie tehnoloģiju uzņēmumi ir svarīgi mākslīgajā intelektā, jo tie kontrolē nepievilcīgās pamatlietas — skaitļošanu, mākoņplatformas, ierīces, lietotņu veikalus un uzņēmumu rīkus. Šī kontrole ļauj tiem finansēt progresīvus modeļus un ātri piegādāt funkcijas miljardiem cilvēku. Ja pārvaldība, privātuma kontrole un sadarbspēja ir vāja, tā pati ietekme pārvēršas par piesaisti un varas koncentrāciju.
Galvenie secinājumi:
Infrastruktūra: Uztveriet mākoņa, mikroshēmu un MLOp kontroli kā galveno mākslīgā intelekta ierobežojošo punktu.
Izplatīšana: Sagaidāms, ka platformas atjauninājumi definēs, ko “mākslīgais intelekts” nozīmē lielākajai daļai lietotāju.
Vārtu kontrole: lietotņu veikala noteikumi un API termini nemanāmi nosaka, kuras mākslīgā intelekta funkcijas tiek piegādātas.
Lietotāja kontrole: pieprasiet skaidras atteikšanās iespējas, izturīgus iestatījumus un funkcionējošas administratora vadīklas.
Atbildība: Pieprasīt audita žurnālus, pārredzamību un pārsūdzības ceļus kaitīgu iznākumu gadījumā.

🔗 Mākslīgā intelekta nākotne: tendences un kas tālāk
Galvenie jauninājumi, riski un nozares mainījās nākamās desmitgades laikā.
🔗 Ģeneratīvā mākslīgā intelekta pamatmodeļi: vienkāršs ceļvedis
Izprotiet, kā pamatmodeļi nodrošina modernu ģeneratīvā mākslīgā intelekta lietojumprogrammu darbību.
🔗 Kas ir mākslīgā intelekta uzņēmums un kā tas darbojas
Apgūstiet īpašības, komandas un produktus, kas raksturo mākslīgā intelekta vadītus uzņēmumus.
🔗 Kā mākslīgā intelekta kods izskatās reālos projektos
Skatiet mākslīgā intelekta vadītu koda modeļu, rīku un darbplūsmu piemērus.
Atzīsim uz brīdi – lielākā daļa “mākslīgā intelekta sarunu” paslīd garām tādām nepievilcīgām daļām kā skaitļošana, izplatīšana, iepirkumi, atbilstība un neveiklā realitāte, ka kādam ir jāmaksā par grafiskajiem procesoriem un elektrību. Lielie tehnoloģiju uzņēmumi dzīvo šajās nepievilcīgajās daļās. Tieši tāpēc tas ir tik svarīgi. 😅 ( IEA — enerģētika un mākslīgais intelekts , NVIDIA — mākslīgā intelekta secinājumu platformu pārskats )
Lielo tehnoloģiju uzņēmumu mākslīgā intelekta loma vienkāršā valodā 🧩
Kad cilvēki saka “lielās tehnoloģijas”, viņi parasti domā milzu platformu uzņēmumus, kas kontrolē galvenos mūsdienu skaitļošanas slāņus:
-
Mākoņinfrastruktūra (kur darbojas mākslīgais intelekts) ☁️ ( Amazon SageMaker mākslīgā intelekta dokumentācija , Azure mašīnmācīšanās dokumentācija , Vertex mākslīgā intelekta dokumentācija )
-
Patērētāju ierīces un operētājsistēmas (kur nonāk mākslīgais intelekts) 📱💻 ( Apple Core ML , Google ML Kit )
-
Lietotņu ekosistēmas un tirgus platformas (kur izplatās mākslīgais intelekts) 🛒 ( Apple lietotņu pārskatīšanas vadlīnijas , Google Play datu drošība )
-
Datu cauruļvadi un analītikas komplekti (kur tiek baroti mākslīgais intelekts) 🍽️
-
Uzņēmuma programmatūra (kur mākslīgais intelekts tiek monetizēts) 🧾
-
Čipu un aparatūras partnerības (kur tiek paātrināta mākslīgā intelekta darbība) 🧠🔩 ( NVIDIA — mākslīgā intelekta secinājumu platformu pārskats )
Tātad loma nav tikai “viņu mākslīgā intelekta radīšana”. Drīzāk viņi būvē automaģistrāles, pārdod automašīnas, pārvalda nodevas iekasēšanas punktus un arī izlemj, kur atrodas nobrauktuves. Neliels pārspīlējums... bet ne pārāk.
Lielo tehnoloģiju uzņēmumu loma mākslīgajā intelektā: piecas lielākās darbavietas 🏗️
Ja vēlaties tīru mentālo modeli, lielie tehnoloģiju uzņēmumi mākslīgā intelekta pasaulē parasti veic piecus savstarpēji pārklājošus darbus:
-
Infrastruktūras nodrošinātājs
Datu centri, mākonis, tīklošana, drošība, MLOps rīki. Lietas, kas padara mākslīgo intelektu iespējamu plašā mērogā. ( Amazon SageMaker mākslīgā intelekta dokumentācija , IEA — Enerģētika un mākslīgais intelekts ) -
Modeļu veidotājs un pētniecības dzinējs
Ne vienmēr, bet bieži — laboratorijas, iekšējā pētniecība un attīstība, lietišķie pētījumi un “produktizēta zinātne”. ( Mērogošanas likumi neironu valodu modeļiem (arXiv) , skaitļošanai optimālu lielo valodu modeļu apmācība (Chinchilla) (arXiv) ) -
Izplatītājs
Viņi var ievietot mākslīgo intelektu meklēšanas lodziņos, tālruņos, e-pasta klientos, reklāmas sistēmās un darba vietas rīkos. Izplatīšana ir superspēja. -
Vārtu sargs un noteikumu noteicējs.
Lietotņu veikala politikas, platformas noteikumi, API noteikumi, satura moderēšana, drošības vārti, uzņēmuma kontrole. ( Apple lietotņu pārskatīšanas vadlīnijas , Google Play datu drošība ). -
Kapitāla sadalītājs
Viņi finansē, iegādājas, sadarbojas, inkubē. Viņi veido to, kas izdzīvo.
Tā ir lielo tehnoloģiju uzņēmumu loma mākslīgā intelekta jomā funkcionālā ziņā: tie rada apstākļus mākslīgā intelekta pastāvēšanai un pēc tam izlemj, kā tas jūs sasniedz.
Kas veido labu lielo tehnoloģiju uzņēmumu mākslīgā intelekta lomas versiju ✅😬
Lielo tehnoloģiju “laba versija” mākslīgā intelekta jomā nenozīmē pilnību. Tā ir par atbildīgi veiktiem kompromisiem, ar mazāk negaidītiem šķēršļiem visiem pārējiem.
Lūk, kas parasti atšķir “izpalīdzīgā milža” no “ak, monopola”:
-
Caurspīdīgums bez žargona pārklāšanas.
Skaidrs mākslīgā intelekta funkciju, ierobežojumu un izmantoto datu apzīmējums. Nevis 40 lappušu gara politikas labirinta. ( NIST AI RMF 1.0 , ISO/IEC 42001:2023 ). -
Reāla lietotāja kontrole
Atteikšanās iespējas, kas darbojas, privātuma iestatījumi, kas netiek atiestatīti noslēpumaini, un administratora vadīklas, kas nav domātas dārgumu meklēšanai. ( VDAR — Regula (ES) 2016/679 ) -
Sadarbspēja un atvērtība — dažreiz
ne visam ir jābūt atvērtā koda, taču visu piesaistīšana vienam pārdevējam uz visiem laikiem ir… izvēle. -
Drošība ar zobiem.
Ļaunprātīgas izmantošanas uzraudzība, sarkanās komandas veidošana, satura kontrole un vēlme bloķēt acīmredzami riskantus lietošanas gadījumus. ( NIST AI RMF 1.0 , NIST GenAI profils (AI RMF pavadonis) ). -
Veselīgas ekosistēmas.
Atbalsts jaunuzņēmumiem, partneriem, pētniekiem un atvērtiem standartiem, lai inovācija nekļūtu par “platformas īri vai izzušanu”. ( ESAO mākslīgā intelekta principi )
Teikšu tieši: “labā versija” atgādina stabilu sabiedrisko pakalpojumu sniedzēju ar izteiktu produkta garšu. Sliktā versija atgādina kazino, kur noteikumus raksta arī kazino. 🎰
Salīdzināšanas tabula: galvenās lielo tehnoloģiju uzņēmumu “mākslīgā intelekta līnijas” un to darbības iemesli 📊
| Rīks (josla) | Auditorija | Cena | Kāpēc tas darbojas |
|---|---|---|---|
| Mākoņa mākslīgā intelekta platformas | Uzņēmumi, jaunuzņēmumi | uz lietošanu balstīts | Vienkārša mērogošana, viens rēķins, daudz pogu (par daudz pogu) |
| Frontier Model API | Izstrādātāji, produktu komandas | maksāt par žetonu / daudzpakāpju | Ātri integrējams, laba sākotnējā kvalitāte, šķiet kā krāpšanās 😅 |
| Ierīcē iegultā mākslīgā intelekta | Patērētāji, ražojošie patērētāji | komplektā | Zems latentums, dažreiz privātumam draudzīgs, darbojas gandrīz bezsaistē |
| Produktivitātes komplekta mākslīgais intelekts | Biroja komandas | papildinājums par katru sēdvietu | Dzīvo ikdienas darbplūsmās — dokumenti, pasts, sanāksmes, viss rūpju pilns darbs |
| Reklāmas + mērķauditorijas atlases mākslīgais intelekts | Tirgotāji | % no tēriņiem | Lielie dati + izplatīšana = efektīvi, arī nedaudz biedējoši 👀 |
| Drošība + atbilstības mākslīgais intelekts | Regulētās nozares | prēmija | Pārdod “mieru” — pat ja tas nozīmē tikai mazāk brīdinājumu |
| Mākslīgā intelekta mikroshēmas + paātrinātāji | Visi augšup pa straumi | ar lieliem kapitālizdevumiem | Ja tev pieder lāpstas, tu uzvari zelta drudža laikā (neveikla metafora, tomēr patiesa) |
| Atvērtas ekosistēmas spēles | Būvnieki, pētnieki | bezmaksas + maksas līmeņi | Kopienas impulss, ātrāka iterācija, dažreiz nevaldāma jautrība |
Neliela atzīšanās pie galda: “bezmaksas” tur dara daudz darba. Brīvs, līdz tas vairs nav… jūs jau zināt, kā tas notiek.
Tuvplāns: infrastruktūras sašaurinājuma punkts (skaitļošana, mākonis, mikroshēmas) 🧱⚙️
Šī ir tā daļa, par kuru vairums cilvēku nevēlas runāt, jo tā nav glaunīga. Taču tā ir mākslīgā intelekta mugurkauls.
Lielās tehnoloģijas ietekmē mākslīgo intelektu, kontrolējot:
-
Datorpiegāde (GPU piekļuve, klasteri, plānošana) ( IEA — enerģijas pieprasījums no mākslīgā intelekta )
-
Tīklošana (augsta joslas platuma starpsavienojumi, zema latentuma audumi)
-
Krātuve (datu ezeri, izguves sistēmas, dublējumkopijas)
-
MLOps cauruļvadi (apmācība, izvietošana, uzraudzība, pārvaldība) ( MLOps uz Vertex AI , Azure MLOps arhitektūras )
-
Drošība (identitāte, audita žurnāli, šifrēšana, politikas ieviešana) ( NIST AI RMF 1.0 , ISO/IEC 42001:2023 )
Ja kādreiz esat mēģinājis ieviest mākslīgā intelekta sistēmu reālā uzņēmumā, jūs jau zināt, ka “modeļa” ieviešana ir vieglākā daļa. Grūtākā daļa ir: atļaujas, reģistrēšana, piekļuve datiem, izmaksu kontrole, darbības laiks, incidentu reaģēšana… pieaugušajiem paredzētas lietas. 😵💫
Tā kā lielie tehnoloģiju uzņēmumi pieder tik daudz no tā, tie var iestatīt noklusējuma modeļus:
-
Kuri rīki kļūst par standartu
-
Kuri ietvari saņem pirmklasīgu atbalstu
-
Kurai aparatūrai tiek piešķirta prioritāte
-
Kuri cenu noteikšanas modeļi kļūst par “normāliem”?
Tas automātiski nav ļaunums. Bet tā ir vara.
Tuvplāns: modeļa izpēte pret produkta realitāti 🧪➡️🛠️
Lūk, spriedze: lielie tehnoloģiju uzņēmumi var finansēt padziļinātus pētījumus un tiem ir nepieciešami arī ceturkšņa produktu uzlabojumi. Šī kombinācija rada pārsteidzošus sasniegumus un arī… apšaubāmus funkciju izlaidumus.
Lielās tehnoloģijas parasti veicina mākslīgā intelekta attīstību, izmantojot:
-
Masveida apmācības cikli (mērogam ir nozīme) ( neironu valodu modeļu mērogošanas likumi (arXiv) )
-
Iekšējās novērtēšanas procesi (salīdzinošā novērtēšana, drošības testi, regresijas pārbaudes) ( NIST GenAI profils (AI RMF pavadonis) )
-
Lietišķā pētniecība (rakstu pārvēršana produktu uzvedībā)
-
Instrumentu uzlabojumi (destilācija, kompresija, pasniegšanas efektivitāte)
Bet produkta spiediens maina lietas:
-
Ātrums pārspēj eleganci
-
Piegādes pārspēj skaidrojumu
-
“Pietiekami labs” ir labāks par “pilnībā saprasts”
Dažreiz tas ir labi. Lielākajai daļai lietotāju nav nepieciešama teorētiska tīrība, viņiem ir nepieciešams noderīgs palīgs viņu darbplūsmā. Taču pastāv risks, ka “pietiekami labs” tiek izmantots sensitīvos kontekstos (veselība, pieņemšana darbā, finanses, izglītība), kur “pietiekami labs”… nav pietiekami labs. ( ES Mākslīgā intelekta likums — Regula (ES) 2024/1689 )
Tā ir daļa no lielo tehnoloģiju uzņēmumu lomas mākslīgajā intelektā — pārvērst jaunākās iespējas masu tirgus funkcijās, pat ja malas joprojām ir asas. 🔪
Tuvplāns: izplatīšana ir īstā superspēja 🚀📣
Ja mākslīgo intelektu var ievietot vietās, kur cilvēki jau dzīvo digitāli, jums nav jāpārliecina lietotāji. Jūs vienkārši kļūstat par noklusējuma vērtību.
Lielo tehnoloģiju uzņēmumu izplatīšanas kanāli ietver:
-
Meklēšanas joslas un pārlūkprogrammas 🔎
-
Mobilo operētājsistēmu asistenti 📱
-
Darba vietas komplekti (dokumenti, pasts, tērzēšana, sanāksmes) 🧑💼
-
Sociālās plūsmas un ieteikumu sistēmas 📺
-
Lietotņu veikali un platformu tirdzniecības platformas 🛍️ ( Apple lietotņu pārskatīšanas vadlīnijas , Google Play datu drošība )
Tāpēc mazāki mākslīgā intelekta uzņēmumi bieži sadarbojas ar lielajiem tehnoloģiju uzņēmumiem, pat ja tie par to uztraucas. Izplatīšana ir skābeklis. Bez tā var būt labākais modelis pasaulē un joprojām kliegt tukšumā.
Pastāv arī smalka blakusparādība: izplatīšana veido to, ko “mākslīgais intelekts” vispār nozīmē sabiedrībai. Ja mākslīgais intelekts galvenokārt parādās kā rakstīšanas palīgs, cilvēki pieņem, ka mākslīgais intelekts ir saistīts ar rakstīšanu. Ja tas parādās kā fotoattēlu rediģēšana, cilvēki pieņem, ka mākslīgais intelekts ir saistīts ar attēliem. Platforma nosaka noskaņu.
Tuvplāns: dati, privātums un uzticības darījums 🔐🧠
Mākslīgā intelekta sistēmas bieži vien kļūst efektīvākas, ja tās tiek personalizētas. Personalizācijai bieži vien ir nepieciešami dati. Un dati rada risku. Šis trijstūris nekad nepazūd.
Lielās tehnoloģijas atrodas uz:
-
Patērētāju uzvedības dati (meklējumi, klikšķi, preferences)
-
Uzņēmuma dati (e-pasti, dokumenti, tērzēšanas sarunas, pieprasījumi, darbplūsmas)
-
Platformas dati (lietotnes, maksājumi, identitātes signāli)
-
Ierīces dati (atrašanās vieta, sensori, fotoattēli, balss ievades)
Pat ja “neapstrādātie dati” netiek izmantoti tieši, apkārtējā ekosistēma veido apmācību, precizēšanu, novērtēšanu un produkta virzienu.
Uzticības darījums parasti izskatās šādi:
-
Lietotāji piekrīt datu vākšanai, jo produkts ir ērts 🧃
-
Regulatori pretojas, kad kļūst aizdomīgi 👀 ( GDPR — Regula (ES) 2016/679 )
-
Uzņēmumi reaģē ar kontroles līdzekļiem, politikām un vēstījumu “privātums pirmajā vietā”
-
Visi strīdas par to, ko nozīmē "privātums"
Praktisks īkšķa likums, ko esmu redzējis darbojamies: ja uzņēmums var izskaidrot savu mākslīgā intelekta datu praksi vienā sarunā, neslēpjoties aiz juristu valodas, tas parasti darbojas labāk nekā vidēji. Ne perfekti – vienkārši labāk.
Tuvplāns: pārvaldība, drošība un klusā ietekmēšanas spēle 🧯📜
Šī ir mazāk redzamā loma: lielie tehnoloģiju uzņēmumi bieži palīdz definēt noteikumus, kurus ievēro visi pārējie.
Tie veido pārvaldību, izmantojot:
-
Iekšējās drošības politikas (ko modelis atteiks) ( NIST AI RMF 1.0 )
-
Platformas politikas (ko lietotnes drīkst darīt) ( Apple lietotņu pārskatīšanas vadlīnijas , Google Play datu drošība )
-
Uzņēmuma atbilstības funkcijas (audita pieraksti, datu saglabāšana, datu robežas) ( ISO/IEC 42001:2023 , ES Mākslīgā intelekta likums — Regula (ES) 2024/1689 )
-
Dalība nozares standartu izstrādē (tehniskie ietvari, labākā prakse) ( ESAO mākslīgā intelekta principi , ISO/IEC 42001:2023 )
-
Lobēšana un iesaistīšanās politikas veidošanā (jā, arī šī daļa)
Dažreiz tas ir patiesi noderīgi. Lielie tehnoloģiju uzņēmumi var ieguldīt drošības komandās, uzticamības nodrošināšanas rīkos, ļaunprātīgas izmantošanas atklāšanā un atbilstības infrastruktūrā, ko mazāki dalībnieki nevar atļauties.
Dažreiz tas ir savtīgi. Drošība var kļūt par barjeru, kur tikai lielākie spēlētāji var “atļauties” ievērot noteikumus. Tā ir 22. ķērājs: drošība ir nepieciešama, bet dārga drošība var nejauši iesaldēt konkurenci. ( ES Mākslīgā intelekta likums — Regula (ES) 2024/1689 )
Šeit svarīgas ir nianses. Arī ne jautras nianses - tās kaitinošās. 😬
Tuvplāns: konkurence, atvērtas ekosistēmas un jaunuzņēmumu gravitācija 🧲🌱
Lielo tehnoloģiju uzņēmumu loma mākslīgā intelekta jomā ietver arī tirgus formas veidošanu:
-
Pārņemšana (talanti, tehnoloģijas, izplatīšana)
-
Partnerības (modeļi, kas mitināti mākonī, kopīgi uzņēmumu darījumi)
-
Ekosistemas finansējums (kredīti, inkubatori, tirgi)
-
Atvērtie rīki (ietvari, bibliotēkas, “atvērtās” versijas)
Esmu novērojis atkārtojamies kādu modeli:
-
Jaunuzņēmumi ātri ievieš inovācijas
-
Lielie tehnoloģiju uzņēmumi integrē vai kopē veiksmīgo modeli
-
Jaunuzņēmumi pievēršas nišām vai kļūst par iegādes mērķiem
-
"Platformas slānis" sabiezē
Tas ne vienmēr ir slikti. Platformas var mazināt berzi un padarīt mākslīgo intelektu pieejamu. Taču tas var arī samazināt daudzveidību. Ja katrs produkts kļūst par “ietinumu ap tiem pašiem dažiem API”, inovācija sāk šķist kā mēbeļu pārkārtošana vienā dzīvoklī.
Nedaudz nekārtīgas konkurences ir veselīgas. Tāpat kā ierauga mīkla. Ja visu sterilizē, tas pārstāj rūgt. Šī metafora ir nedaudz nepilnīga, bet es pie tās pieturos. 🍞
Dzīvojot gan ar aizrautību, gan piesardzību 😄😟
Abas sajūtas saskan. Uztraukums un piesardzība var pastāvēt vienā telpā.
Iemesli sajūsmai:
-
Ātrāka noderīgu rīku ieviešana
-
Labāka infrastruktūra un uzticamība
-
Zemāks šķērslis uzņēmumiem mākslīgā intelekta ieviešanai
-
Vairāk investīciju drošībā un standartizācijas ( NIST AI RMF 1.0 , ESAO AI principi ).
Iemesli piesardzībai:
-
Aprēķinu un sadales konsolidācija ( IEA — enerģijas pieprasījums no mākslīgā intelekta )
-
Piesaistīšanās, izmantojot cenas, API un ekosistēmas
-
Privātuma riski un ar uzraudzību saistītie rezultāti ( VDAR — Regula (ES) 2016/679 )
-
“Viena uzņēmuma politika” kļūst par ikviena realitāti
Reālistiska nostāja ir šāda: lielie tehnoloģiju uzņēmumi var paātrināt mākslīgā intelekta attīstību pasaulē, vienlaikus koncentrējot varu. Šie apgalvojumi var būt patiesi vienlaikus. Cilvēkiem šī atbilde nepatīk, jo tai trūkst asuma, tomēr tā atbilst pierādījumiem.
Praktiski padomi dažādiem lasītājiem 🎯
Ja esat uzņēmuma pircējs 🧾
-
Pajautājiet, kur nonāk jūsu dati, kā tie tiek izolēti un ko administratori var kontrolēt ( VDAR — Regula (ES) 2016/679 , ES Mākslīgā intelekta likums — Regula (ES) 2024/1689 ).
-
Prioritizējiet audita žurnālus, piekļuves kontroles un skaidras saglabāšanas politikas ( ISO/IEC 42001:2023 ).
-
Pievērsiet uzmanību slēptajām izmaksu līknēm (lietošanas cenas strauji pieaug)
Ja esat izstrādātājs 🧑💻
-
Veidojiet, ņemot vērā pārnesamību (abstrakcijas slāņi palīdz)
-
Nelieciet visu uz viena pārdevēja funkciju, kas var izzust
-
Sekojiet līdzi tarifu ierobežojumiem, cenu izmaiņām un politikas atjauninājumiem tā, it kā tas būtu jūsu darba daļa (jo tas tā ir) ( Apple lietotņu pārskatīšanas vadlīnijas , Google Play datu drošība ).
Ja esat politikas veidotājs vai atbilstības vadītājs 🏛️
-
Virzīties uz sadarbspējīgiem standartiem un pārredzamības normām ( ESAO mākslīgā intelekta principi )
-
Izvairieties no noteikumiem, kurus var atļauties ievērot tikai giganti ( ES Mākslīgā intelekta likums — Regula (ES) 2024/1689 ).
-
Uztveriet “izplatīšanas kontroli” kā galveno jautājumu, nevis kā sekundāru domu
Ja esat regulārs lietotājs 🙋
-
Uzziniet, kur jūsu lietotnēs atrodas mākslīgā intelekta funkcijas
-
Izmantojiet privātuma kontroles līdzekļus pat tad, ja tie ir kaitinoši ( VDAR — Regula (ES) 2016/679 )
-
Esiet skeptiski pret "maģiskajiem" rezultātiem — mākslīgais intelekts ir pārliecināts, bet ne vienmēr pareizs 😵
Noslēguma kopsavilkums: lielo tehnoloģiju loma mākslīgajā intelektā 🧠✨
Lielo tehnoloģiju uzņēmumu loma mākslīgā intelekta jomā nav viena vienība. Tā ir lomu kopums: infrastruktūras īpašnieks, modeļu veidotājs, izplatītājs, vārtu sargs un tirgus veidotājs. Tie ne tikai piedalās mākslīgā intelekta darbībā – tie nosaka vidi, kurā mākslīgais intelekts aug.
Ja atceraties tikai vienu rindiņu, ierakstiet to šādi:
Lielo tehnoloģiju uzņēmumu loma mākslīgajā intelektā.
Tā veido procesus, nosaka noklusējuma iestatījumus un vada to, kā mākslīgais intelekts sasniedz cilvēkus — milzīgā mērogā ar milzīgām sekām. ( NIST AI RMF 1.0 , ES Mākslīgā intelekta likums — Regula (ES) 2024/1689 ).
Un jā, “sekas” izklausās dramatiski. Bet mākslīgais intelekts ir viena no tām tēmām, kur dramatisms dažreiz ir vienkārši… precīzs. 😬🤖
Bieži uzdotie jautājumi
Kāda ir lielo tehnoloģiju uzņēmumu loma mākslīgajā intelektā praktiskā nozīmē?
Lielo tehnoloģiju uzņēmumu loma mākslīgā intelekta jomā ir mazāk “viņi veido modeļus”, bet vairāk “viņi vada mehānismus, kas liek mākslīgajam intelektam darboties plašā mērogā”. Tie nodrošina mākoņinfrastruktūru, piegādā mākslīgo intelektu, izmantojot ierīces un lietotnes, un nosaka platformas noteikumus, kas ietekmē to, kas tiek veidots. Tie arī finansē pētniecību, partnerības un iegādes, kas ietekmē to, kuras pieejas izdzīvo. Daudzos tirgos tie faktiski nosaka mākslīgā intelekta noklusējuma pieredzi.
Kāpēc piekļuve skaitļošanas resursiem ir tik svarīga tiem, kas var veidot mākslīgo intelektu plašā mērogā?
Mūsdienu mākslīgais intelekts ir atkarīgs no lieliem GPU klasteriem, ātras tīklošanas, krātuves un uzticamiem MLOps cauruļvadiem — ne tikai gudriem algoritmiem. Ja nevarat iegūt paredzamu jaudu, apmācība, novērtēšana un izvietošana kļūst nestabila un dārga. Lielie tehnoloģiju uzņēmumi bieži kontrolē “mugurkaula” slāni (mākoni, mikroshēmu partnerības, plānošanu, drošību), kas var noteikt, kas ir iespējams mazākām komandām. Šī jauda var būt noderīga, taču tā joprojām ir jauda.
Kā lielo tehnoloģiju izplatīšana ietekmē to, ko “mākslīgais intelekts” nozīmē ikdienas lietotājiem?
Izplatīšana ir superspēja, jo tā pārvērš mākslīgo intelektu (MI) par noklusējuma funkciju, nevis atsevišķu produktu, kas jāizvēlas. Kad MI parādās meklēšanas joslās, tālruņos, e-pastā, dokumentos, sapulcēs un lietotņu veikalos, tas lielākajai daļai cilvēku kļūst par “MI būtību”. Tas arī sašaurina sabiedrības gaidas: ja MI galvenokārt ir rakstīšanas rīks jūsu lietotnēs, lietotāji pieņem, ka MI ir līdzvērtīgs rakstīšanai. Platformas klusi nosaka toni.
Kādi ir galvenie veidi, kā platformas noteikumi un lietotņu veikali darbojas kā mākslīgā intelekta vārtu sargi?
Lietotņu pārskatīšanas politikas, tirgus noteikumi, satura noteikumi un API ierobežojumi var noteikt, kuras mākslīgā intelekta funkcijas ir atļautas un kā tām jādarbojas. Pat ja noteikumi ir formulēti kā drošības vai privātuma aizsardzības pasākumi, tie arī ietekmē konkurenci, palielinot atbilstības un ieviešanas izmaksas. Izstrādātājiem tas nozīmē, ka politikas atjauninājumi var būt tikpat svarīgi kā modeļu atjauninājumi. Praksē "kas tiek piegādāts", bieži vien ir "tas, kas iziet cauri vārtiem"
Kā mākoņa mākslīgā intelekta platformas, piemēram, SageMaker, Azure ML un Vertex AI, iederas lielo tehnoloģiju lomā mākslīgā intelekta jomā?
Mākoņa mākslīgā intelekta platformas apvieno apmācību, izvietošanu, uzraudzību, pārvaldību un drošību vienuviet, kas samazina berzi jaunuzņēmumiem un lieliem uzņēmumiem. Tādi rīki kā Amazon SageMaker, Azure Machine Learning un Vertex AI atvieglo izmaksu mērogošanu un pārvaldību, izmantojot viena piegādātāja attiecības. Kompromiss ir tāds, ka ērtības var palielināt piesaisti, jo darbplūsmas, atļaujas un uzraudzība ir dziļi integrētas šajā ekosistēmā.
Kas uzņēmuma pircējam būtu jāuzdod pirms lielo tehnoloģiju mākslīgā intelekta rīku ieviešanas?
Sāciet ar datiem: kur tie nonāk, kā tie tiek izolēti un kādas saglabāšanas un audita kontroles pastāv. Jautājiet par administratora kontrolēm, reģistrēšanu, piekļuves robežām un to, kā modeļi tiek novērtēti attiecībā uz risku jūsu domēnā. Tāpat pārbaudiet cenas, jo lietošanas izmaksas var pieaugt, pieaugot ieviešanai. Regulētā vidē saskaņojiet cerības ar jūsu organizācijas jau izmantotajām sistēmām un atbilstības prasībām.
Kā izstrādātāji var izvairīties no pieķeršanās pie viena pārdevēja, veidojot lielo tehnoloģiju mākslīgā intelekta API?
Izplatīta pieeja ir izstrādāt tā, lai būtu ņemta vērā pārnesamība: ietvert modeļa izsaukumus aiz abstrakcijas slāņa un saglabāt uzvednes, politikas un novērtēšanas loģiku versijas un testējamas. Izvairīties no paļaušanās uz vienu “īpašu” pārdevēja funkciju, kas varētu mainīties vai pazust. Izsekot tarifu ierobežojumus, cenu atjauninājumus un politikas izmaiņas kā daļu no pastāvīgas apkopes. Pārnesamība nav bezmaksas, taču tā parasti izmaksā mazāk nekā piespiedu migrācija.
Kā privātums un personalizācija rada “uzticības darījumu” ar mākslīgā intelekta funkcijām?
Personalizācija bieži uzlabo mākslīgā intelekta lietderību, taču tā parasti palielina datu pakļautību un uztverto rāpojošo raksturu. Lielie tehnoloģiju uzņēmumi ir cieši saistīti ar uzvedības, uzņēmuma, platformas un ierīces datiem, tāpēc lietotāji un regulatori rūpīgi pārbauda, kā šie dati ietekmē apmācību, precizēšanu un lēmumus par produktu. Praktisks kritērijs ir tas, vai uzņēmums var skaidri izskaidrot savu mākslīgā intelekta datu praksi, neslēpjoties aiz juridiskas valodas. Svarīga ir laba kontrole un reālas atteikšanās iespējas.
Kādi standarti un noteikumi ir visatbilstošākie lielo tehnoloģiju (Big Tech) mākslīgā intelekta pārvaldībai un drošībai?
Daudzos cauruļvados pārvaldība apvieno iekšējās drošības politikas ar ārējiem regulējumiem un likumiem. Organizācijas bieži atsaucas uz riska pārvaldības vadlīnijām, piemēram, NIST mākslīgā intelekta RMF, pārvaldības standartiem, piemēram, ISO/IEC 42001, un reģionālajiem noteikumiem, piemēram, GDPR un ES mākslīgā intelekta likumu, attiecībā uz noteiktiem lietošanas gadījumiem. Tie ietekmē reģistrēšanu, auditus, datu robežas un to, kas tiek bloķēts vai atļauts. Problēma ir tā, ka atbilstības nodrošināšana var kļūt dārga, kas var dot priekšrocības lielākiem dalībniekiem.
Vai lielo tehnoloģiju uzņēmumu ietekme uz konkurenci un ekosistēmām vienmēr ir slikta lieta?
Ne automātiski. Platformas var pazemināt šķēršļus, standartizēt rīkus un finansēt drošību un infrastruktūru, ko mazākas komandas nevar atļauties. Taču tā pati dinamika var samazināt daudzveidību, ja visi kļūst par plānu apvalku ap dažiem dominējošiem API, mākoņiem un tirgiem. Pievērsiet uzmanību tādiem modeļiem kā skaitļošanas un izplatīšanas konsolidācija, kā arī cenu un politikas maiņa, no kuras ir grūti izvairīties. Veselīgākās ekosistēmas parasti saglabā vietu sadarbspējai un jauniem dalībniekiem.
Atsauces
-
Starptautiskā Enerģētikas aģentūra — Enerģētika un mākslīgais intelekts — iea.org
-
Starptautiskā Enerģētikas aģentūra — Mākslīgā intelekta enerģijas pieprasījums — iea.org
-
NVIDIA — AI secinājumu platformu pārskats — nvidia.com
-
Amazon Web Services — Amazon SageMaker mākslīgā intelekta dokumentācija (Kas ir SageMaker?) — aws.amazon.com
-
Microsoft — Azure mašīnmācīšanās dokumentācija — learn.microsoft.com
-
Google Cloud — Vertex mākslīgā intelekta dokumentācija — cloud.google.com
-
Google Cloud — MLOps uz Vertex AI — cloud.google.com
-
Microsoft — mašīnmācīšanās operāciju (MLOps) 2. versijas arhitektūras ceļvedis — learn.microsoft.com
-
Apple izstrādātājs — Core mašīnmācīšanās — developer.apple.com
-
Google izstrādātāji — mašīnmācīšanās komplekts — developers.google.com
-
Apple izstrādātājs — lietotņu pārskatīšanas vadlīnijas — developer.apple.com
-
Google Play Console palīdzība — datu drošība — support.google.com
-
arXiv — mērogošanas likumi neironu valodas modeļiem — arxiv.org
-
arXiv — skaitļošanas ziņā optimālu lielo valodu modeļu apmācība (Chinchilla) — arxiv.org
-
Nacionālais standartu un tehnoloģiju institūts — Mākslīgā intelekta riska pārvaldības sistēma (AI RMF 1.0) — nist.gov
-
Nacionālais standartu un tehnoloģiju institūts — NIST ģeneratīvais mākslīgā intelekta profils (AI RMF pavadonis) — nist.gov
-
Starptautiskā standartizācijas organizācija — ISO/IEC 42001:2023 — iso.org
-
EUR-Lex — Regula (ES) 2016/679 (VDAR) — eur-lex.europa.eu
-
EUR-Lex - Regula (ES) 2024/1689 (ES akts par mākslīgo intelektu) - eur-lex.europa.eu
-
ESAO – ESAO MI principi – oecd.ai