💸 Bridgewater prognozē, ka lielie tehnoloģiju uzņēmumi 2026. gadā varētu ieguldīt aptuveni 650 miljardus dolāru mākslīgā intelekta infrastruktūrā ↗
Bridžvoters būtībā vicina dzelteno karogu: mākslīgā intelekta tēriņu bums pieaug līdz apmēriem, kas varētu kļūt nekontrolējami. Banknotē Alphabet, Amazon, Meta un Microsoft kopējās mākslīgā intelekta infrastruktūras investīcijas tiek lēstas aptuveni 650 miljardu ASV dolāru apmērā, kas ir pieaugums salīdzinājumā ar daudz mazāku skaitli iepriekšējā gadā. ( Reuters )
Interesanti, ka runa nav tikai par "vairāk grafisko procesoru, lūdzu". Tā ir domino efekta ietekme: spiediens uz naudas atdevi, atkarība no ārējā kapitāla un risks, ka daļa no šiem izdevumiem nepietiekami ātri pārvēršas peļņā. Uzplaukums, kas joprojām turpinās... bet ar asākām malām, vai vismaz tā šķiet. ( Reuters )
🧑💼 OpenAI piesaista konsultantus savam uzņēmuma mēroga atbalstam ↗
OpenAI arvien vairāk pievēršas fāzei “padarīt to reālu darbā” — sadarbojas ar lielākajiem konsultāciju uzņēmumiem, lai palīdzētu lieliem uzņēmumiem virzīties tālāk par pilotprojektiem un eksperimentiem. Tā ir ļoti korporatīva pieeja, bet, atklāti sakot, tieši tur ieguldīta liela daļa naudas. ( TechCrunch )
Šeit valda mazāk “forša demonstrācija” un vairāk “ieviešanas plāns, iepirkumi, pārvaldība, apmācība, visa dokumentācija”. Ja kādreiz esat vērojuši, kā milzīga organizācija mēģina ieviest jaunas tehnoloģijas, jūs zināt, kāpēc viņi piesaista pieaugušos. ( TechCrunch )
🧾 OpenAI padziļina partnerattiecības ar konsultāciju gigantiem, lai virzītu uzņēmumu mākslīgo intelektu tālāk par pilotprojektu ↗
Tas pats pamatsolis, papildu detaļas: OpenAI formalizē ciešākas saites ar konsultāciju uzņēmumiem, lai paātrinātu ieviešanu uzņēmumos un nodrošinātu, ka ieviešanas process pārsniedz posmu “mēs to izmēģinājām vienā nodaļā”. Šis ir nepieciešamais spēks, lai iegūtu un saglabātu milzīgus korporatīvos klientus. ( Reuters )
Pastāv arī smalks spiediena stāsts: ja jūs gatavojaties būt noklusējuma uzņēmuma platforma, jums ir nepieciešama ekosistēma, kas var jūs ieviest plašā mērogā, nevis tikai lielisks modelis. Nepievilcīgajai santehnikai ir kaitinoši liela nozīme. ( Reuters )
🕵️♀️ Uzraugi apgalvo, ka mākslīgā intelekta attēlu rīkiem jāievēro privātuma noteikumi ↗
Privātuma regulatori atkal pievērš uzmanību attēlu ģenerēšanai un sejām līdzīgām izvadēm — būtībā: ja jūsu sistēma var parādīt reālistiskus cilvēkus, datu aizsardzības pienākumi joprojām ir spēkā. Nē, "bet tas ir sintētisks" burvju apmetnis. ( The Register )
Praktiskais secinājums šķiet lielāks atbilstības spiediens uz pakalpojumu sniedzējiem, īpaši attiecībā uz apmācības datiem, identificējamiem līdzības riskiem un produktu ieviešanas veidu. Tā ir viena no tām jomām, kur tehnoloģijas attīstās ātri un noteikumi tām seko... un tad pēkšņi strauji pieaug. ( The Register )
🛡️ NVIDIA nodrošina mākslīgā intelekta nodrošinātu kiberdrošību pasaules kritiskajai infrastruktūrai ↗
Nvidia vairāk pievēršas mākslīgā intelekta izmantošanai aizsardzībā, mērķējot uz kiberdrošības lietošanas gadījumiem, kas saistīti ar kritisko infrastruktūru. Vēstījums ir diezgan skaidrs: sistēmām kļūstot arvien savienotākām un mākslīgā intelekta atbalstītām, uzbrukuma virsma kļūst sarežģītāka, tāpēc arī aizsardzībai ir jāuzlabo līmenis. ( NVIDIA Newsroom )
Nvidia turpina paplašināties no “mēs pārdodam mikroshēmas” uz “mēs esam platformas stāsts”, kas ir… ambiciozs, bet ne nejaušs stāsts. Drošība ir viena no nedaudzajām jomām, kur mākslīgā intelekta tēriņi var tikt ātri apstiprināti, jo bailes ir spēcīgs budžeta lubrikants. ( NVIDIA Newsroom )
🚰 Breakingviews: Lielās tehnoloģijas tikai daļēji novērsīs mākslīgā intelekta radīto ūdens risku ↗
Šis ir nedaudz auksts pārsteigums: jaunāki datu centri var būt ūdens patēriņa ziņā efektīvāki, taču lielāka problēma ir vieta — klasteri bieži vien atrodas vietās, kur jau tā ir problēmas ar ūdens trūkumu. Tāpēc efektivitātes pieaugums palīdz, taču tas neizdzēš pamatā esošo ierobežojumu. ( Reuters )
Arguments būtībā ir šāds: "tehnoloģiju optimizācija nav viss risinājums". Ja mākslīgā intelekta infrastruktūra turpinās paplašināties, tā kļūs gan par lokālu resursu problēmu, gan par globālu inovāciju stāstu — līdzīgi kā mēģinājums palaist ugunsdzēsības šļūteni caur dārza krānu. ( Reuters )
Bieži uzdotie jautājumi
Par ko Bridgewater brīdina attiecībā uz mākslīgā intelekta infrastruktūras izdevumiem 2026. gadā?
Bridgewater norāda, ka mākslīgā intelekta kapitālieguldījumu bums varētu pieaugt pietiekami lielā apjomā, lai radītu otrās kārtas problēmas, ne tikai paātrinātu modeļu progresu. Piezīmē teikts, ka Alphabet, Amazon, Meta un Microsoft kopējās mākslīgā intelekta infrastruktūras investīcijas 2026. gadā būs aptuveni 650 miljardi ASV dolāru. Jāuzmanās, ka mērogs var palielināt risku, ja atdeve kavējas, finansējums samazinās vai pieprasījums neatbilst attīstībai.
Kā milzīgie mākslīgā intelekta infrastruktūras izdevumi varētu ietekmēt atpirkšanu, dividendes un naudas atdevi?
Kad uzņēmumi palielina tēriņus mākslīgā intelekta infrastruktūrai, tiem bieži vien ir mazāk brīvas naudas plūsmas akcionāru atdevei, piemēram, atpirkšanai un dividendēm. Bridgewater norāda, ka šāds tēriņu līmenis var samazināt naudas atdevi un palielināt atkarību no ārējā kapitāla. Ja projektu peļņas gūšana prasa ilgāku laiku, investori var kļūt jutīgāki pret laika grafikiem, peļņas normām un atmaksāšanās pieņēmumiem.
Kāpēc daži ieguldījumi mākslīgā intelekta infrastruktūrā varētu neatmaksāties ātri?
Vairāk skaitļošanas jaudu iegāde nenozīmē lielāku peļņu. Ja uzņēmumi veido jaudas pirms skaidriem, mērogojamiem ieņēmumiem, atšķirība starp izdevumiem un atdevi var palielināties. Izceltais risks ir laika jautājums: uzplaukums var palikt uzplaukums, bet ar asākām malām, ja monetizācija neatpaliek no ierastā. Daudzos ciklos problēma nav pieprasījuma izzušana, bet gan peļņas gūšana vēlāk nekā gaidīts.
Kā OpenAI centieni sadarboties ar konsultāciju firmām palīdz uzņēmumiem pāriet tālāk par pilotprojektiem?
Mērķis ir pārvērst “foršos demonstrācijas” eksperimentus ieviešanas projektos, kas iztur iepirkumus, pārvaldību, apmācību un ikdienas darbības. Konsultāciju firmas palīdz lielām organizācijām standartizēt ieviešanas plānus, saskaņot ieinteresētās personas un pārvaldīt izmaiņas starp nodaļām. Gan Reuters, gan TechCrunch to raksturo kā ekosistēmas muskuļus: lai tā būtu noklusējuma uzņēmuma platforma, ieviešana mērogā ir tikpat svarīga kā pats modelis.
Ko privātuma uzraugi domā, sakot, ka mākslīgā intelekta attēlu rīki joprojām ietilpst privātuma noteikumu darbības jomā?
Regulatori signalizē, ka “sintētisks” automātiski neatbrīvo datu aizsardzības pienākumus, ja rezultāti izskatās pēc īstiem cilvēkiem. Praktiski apsvērumi ietver datu izcelsmes apmācību, riskus saistībā ar identificējamu līdzību un to, kā attēlu rīki tiek izmantoti produktos. Secinājums ir lielāks atbilstības spiediens uz pakalpojumu sniedzējiem un lietotājiem, jo īpaši gadījumos, kad reālistiskas sejas vai cilvēkam līdzīgi rezultāti varētu radīt privātuma un piekrišanas problēmas.
Kāpēc datu centru ūdens riski kļūst par daļu no mākslīgā intelekta sarunas?
Pat ja jaunākie datu centri uzlabo ūdens efektivitāti, lielāks ierobežojums var būt atrašanās vieta. Reuters Breakingviews arguments ir tāds, ka klasteri bieži vien nonāk reģionos, kuros jau ir ūdens trūkums, pārvēršot mākslīgā intelekta izaugsmi par vietējo resursu problēmu. Efektivitāte palīdz, taču tā, iespējams, nekompensē ietekmi, ko rada liela mēroga būvniecība nepareizās vietās. Vietas izvēlei var būt tikpat liela nozīme kā tehniskajai optimizācijai.