🧱 Nvidia iegulda 2 miljardus dolāru CoreWeave, lai paātrinātu datu centru būvniecību ASV ↗
Nvidia ieguldīja 2 miljardus dolāru CoreWeave, nostiprinot jau tā ciešo infrastruktūras partnerību, un jā, tirgus rīkojās paredzami – “oooh, vairāk mākslīgā intelekta jaudu”.
CoreWeave to raksturoja kā degvielu datu centru paplašināšanai (zeme, elektrība, apbūve), nevis tikai kā slepenu soli, lai pārvietotu vairāk mikroshēmu. Tomēr, kad lielākais lāpstu pārdevējs finansē ātrāko lāpstu lietotāju, zemteksts rakstās pats par sevi.
🧠 Microsoft iepazīstina ar Maia 200, jaunu mākslīgā intelekta secinājumu mikroshēmu ↗
Microsoft ieviesa Maia 200 kā savu nākamo mākslīgā intelekta paātrinātāju, kas pozicionēts ap secinājumu darba slodzēm — “modeļa palaišana mērogā”, kas maksā reālu naudu un nemanāmi nosaka ierobežojumus visam pārējam.
Viņi to reklamē kā mērķtiecīgi izstrādātu Azure izvietošanai un mūsdienīgai modeļu apkalpošanai, ar pazīstamajiem apgalvojumiem par caurlaidspēju un efektivitāti. Tas nozīmē, ka Microsoft stingrāk sliecas uz to, ka "mēs mūžīgi nepaļausimies uz visu pārējo silīciju"... vai vismaz virzās šajā virzienā.
🎭 Pēc finansējuma kārtas Synthesia gandrīz divkāršoja savu novērtējumu līdz 4 miljardiem ASV dolāru ↗
Synthesia piesaistīja ievērojamu finansējuma apjomu un palielināja savu novērtējumu līdz 4 miljardiem dolāru, kas ir neprātīgi, ja joprojām domājat, ka mākslīgā intelekta avatari ir tikai triks. Izrādās, ka korporatīvo apmācību budžeti būtībā ir bezgalīga zupa.
Viņi šo impulsu raksturo kā uzņēmumu pieprasījumu pēc ātrāka un lētāka video satura, kā arī interaktīvākas “lomu spēļu” stila apmācības. Ne visiem patīk sintētisko kolēģu atmosfēra, taču šāda pieeja turpina attīstīties.
🚨 ES pēc negatīvas reakcijas sāk izmeklēšanu par X saistībā ar Groka seksualizētiem attēliem ↗
ES regulatori uzsāka izmeklēšanu par X saistībā ar bažām par Groku un platformā izplatītajiem seksualizētajiem attēliem. Pamatā esošā spriedze ir nežēlīgi vienkārša: regulatori vēlas zināt, vai X novērtēja un samazināja paredzamo kaitējumu, vai arī vispirms nosūtīja preces un vēlāk risināja sekas.
Digitālo pakalpojumu likuma aspekts ir svarīgs, jo tas neattiecas tikai uz atsevišķām ziņām, bet gan uz sistēmisko risku pārvaldību. X ir norādījis uz ierobežojumiem un izmaiņām, taču regulatori, šķiet, koncentrējas uz to, vai praksē drošības pasākumi bija pietiekami.
🏛️ Apvienotās Karalistes valdība palielina Kembridžas superdatoru izmantošanu mākslīgā intelekta pētniecības resursa vajadzībām ↗
Apvienotās Karalistes valdība paziņoja par papildu finansējumu, lai paplašinātu AI pētniecības resursu skaitļošanas jaudu Kembridžā. Galvenā doma ir “plašāka piekļuve nopietniem skaitļošanas resursiem pētniecībai”, kas, atklāti sakot, jau sen ir bijusi sašaurinājums.
Tas iekļaujas arī plašākā Apvienotās Karalistes iniciatīvu kopumā datu izmantošanas un sabiedrisko pakalpojumu jomā. To var interpretēt kā praktisku ieguldījumu vai kā Apvienotās Karalistes centienus noturēties mākslīgā intelekta sacensībās, kamēr visi pārējie pērk grafiskos procesorus.
📝 Transporta departaments plāno izmantot Google Gemini, lai palīdzētu izstrādāt transporta noteikumus ↗
ProPublica ziņoja, ka ASV Transporta departaments pēta Google Gemini izmantošanu noteikumu izstrādei, cilvēkiem pārskatot rezultātus. Uz papīra tas izklausās efektīvi, līdz brīdim, kad halucinācija ieslīd zemsvītras piezīmē un pamudina uz reālu rezultātu.
Ziņošanā izteiktā pretestība ir saistīta ar atbildību un risku — noteikumu izstrāde nav emuāra ieraksts. Teorētiski mākslīgais intelekts varētu palīdzēt strukturēt melnrakstus un atklāt neatbilstības, bet tikai tad, ja uzraudzība ir intensīva un process ir caurspīdīgs, un tieši šī daļa mēdz būt pārāk neobjektīva.
Bieži uzdotie jautājumi
Ko Nvidia 2 miljardu dolāru ieguldījums CoreWeave nozīmē mākslīgā intelekta infrastruktūrai ASV?
Tas liecina par ciešākām attiecībām starp lielu mikroshēmu piegādātāju un ātri mērogojamu GPU mākoņpakalpojumu sniedzēju. CoreWeave šo naudu raksturo kā finansējumu datu centra paplašināšanai, tostarp zemei, elektrībai un izbūvei. Praksē tas var nozīmēt lielāku īstermiņa jaudu apmācībai un modeļu darbībai. Tas arī rada jautājumus par to, cik lielā mērā mākslīgā intelekta infrastruktūras piedāvājums un pieprasījums kļūst vertikāli saskaņoti.
Kas ir Microsoft Maia 200, un kāpēc tā pamatā ir secinājumu veidošana?
Maia 200 ir Microsoft nākamais mākslīgā intelekta akselerators, kas vērsts uz secinājumiem — modeļu palaišanu plašā ražošanas vidē. Secinājumu jomā izmaksas var ātri uzkrāties, jo tas ir piesaistīts reālai lietotāju datplūsmai un pastāvīgi ieslēgtiem pakalpojumiem. Microsoft to raksturo kā mērķtiecīgi izstrādātu Azure izvietošanai un mūsdienīgai modeļu apkalpošanai. Plašāks vēstījums ir par ilgtermiņa atkarības no ārējiem silīcija avotiem samazināšanu, veidojot vairāk iekšējo risinājumu.
Kāpēc mākslīgā intelekta avatāru uzņēmumi, piemēram, Synthesia, saņem tik augstu novērtējumu?
Prezentācija ir vienkārša: uzņēmumi vēlas ātrāku un lētāku video veidošanu apmācībām un iekšējai komunikācijai. Synthesia piesaista pieprasījumu pēc korporatīvā satura un interaktīvākiem “lomu spēļu” stila apmācību formātiem. Šis komerciālais lietošanas gadījums var būt sarežģīts, jo tas ietilpst atkārtotu apmācību budžetos. Tajā pašā laikā dažas organizācijas joprojām ir piesardzīgas attiecībā uz “sintētiskā kolēģa” sajūtu un tās ietekmi uz kultūru.
Ko ES izmeklē saistībā ar X un Groka seksualizētajiem attēliem saskaņā ar Digitālo pakalpojumu likumu?
Uzmanība tiek pievērsta ne tikai atsevišķiem amatiem, bet arī tam, vai X novērtēja un samazināja paredzamos sistēmiskos riskus. Regulatori, šķiet, jautā, vai drošības pasākumi tika izstrādāti un īstenoti tā, lai novērstu kaitīgus rezultātus plašā mērogā. X ir norādījis uz ierobežojumiem un izmaiņām, taču izmeklēšana koncentrējas uz riska pārvaldības atbilstību praksē. Tas ir tests par to, kā DSA attiecas uz strauji mainīgām ģeneratīvām funkcijām.
Kas ir Apvienotās Karalistes mākslīgā intelekta pētniecības resurss Kembridžā, un kāpēc lielākam skaitļošanas apjomam ir nozīme?
Mākslīgā intelekta pētniecības resurss ir pozicionēts kā veids, kā paplašināt piekļuvi nopietniem skaitļošanas resursiem pētniecībai, kas ilgstoši ir bijusi sašaurinājums. Lielāka jauda var palīdzēt universitātēm un pētniekiem veikt lielākus eksperimentus un ātrāk tos atkārtot. Šis paziņojums arī atbilst plašākiem Apvienotās Karalistes centieniem datu izmantošanas un publisko pakalpojumu jomā. Faktiski tas ir mēģinājums saglabāt vietējo pētījumu konkurētspēju, pieaugot globālajam pieprasījumam pēc GPU.
Vai ASV Transporta departaments var droši izmantot Google Gemini, lai palīdzētu izstrādāt noteikumus?
Tas var palīdzēt strukturēt melnrakstus, apkopot ievaddatus un atklāt neatbilstības, taču tikai ar intensīvu cilvēka uzraudzību. Galvenais risks ir tāds, ka noteikumu izstrādē, kur detaļām ir reālas sekas, varētu iekļūt halucinēts vai maldinošs teksts. Izplatīta pieeja ir uzskatīt mākslīgā intelekta rezultātus par sākotnējo melnrakstu, pēc tam pieprasot stingru pārbaudi, skaidru atbildību un pārredzamu dokumentāciju. Bez tā "efektivitāte" var kļūt par pārvaldības problēmu.