🧠 OpenAI sadarbojas ar Cerebras ↗
OpenAI apgalvo, ka, izmantojot Cerebras, tas pievieno 750 MW īpaši zema latentuma mākslīgā intelekta skaitļošanas jaudu — būtībā tas ir mēģinājums padarīt atbildes jūtamākas par “reāllaika”, nevis “ej uztaisi tēju, atnāc vēlāk”.
Prezentācija paliek vienkārša: ātrāki secinājumu cikli (jautājums - domas - atbilde) nozīmē, ka cilvēki paliek darbā ilgāk un veic lielākas darba slodzes… kas, jā, tiek izsekots. Jauda tiks ieviesta pakāpeniski, un līdz 2028. gadam būs pieejama vēl lielāka jaudas jauda.
🔍 Google izmanto e-pastus un YouTube vēsturi, lai izstrādātu personalizētu mākslīgo intelektu ↗
Google Gemini kļūst arvien “jūsu-kodētāks”, izmantojot tādus datus kā Gmail, Meklēšana un YouTube vēsture — ja vien jūs to izvēlaties (un pēc noklusējuma tas ir izslēgts). Tā ir jūsu tālruņa tērzēšanas robota versija, kas zina, ka esat izsalcis, pirms jūs to izjūtat.
Ideja ir tāda, ka Gemini var secināt vēlmes un kontekstu, lai atbildes šķistu mazāk vispārīgas un vairāk tādas, it kā tas patiesi atcerētos jūsu dzīvi. Ērti — un arī tāda lieta, kas liek jums apstāties ritināšanas vidū un pateikt: “Pagaidiet, tas zina daudz.”
🧩 Jaudīgas Nvidia mākslīgā intelekta mikroshēmas pārdošana Ķīnai saņem zaļo gaismu ar nosacījumiem ↗
ASV apstiprināja Nvidia H200 mākslīgā intelekta mikroshēmu Ķīnai, taču ar virkni ierobežojumu (prioritāte ASV piegādēm, papildu pārskatīšanas pasākumi, ierobežojumi attiecībā uz to, kur mikroshēmas var nonākt).
Likumdevēju viedokļi dalās — daži to uzskata par risku valsts drošībai, citi — par konkurences spēli (jo, ja jūs nepārdosiet, to izdarīs kāds cits… vai arī Ķīna vienkārši būvēs ātrāk). Tas ir viens no tiem politikas soļiem, kas kaut kādā veidā ir gan “stratēģisks”, gan neskaidrs.
🛡️ Beļģijas kiberdrošības jaunuzņēmums Aikido ar jaunu finansējuma kārtu sasniedz vienradža statusu ↗
Pēc 60 miljonu dolāru Aikido Security sasniedza 1 miljarda dolāru vērtējumu , stingri nostājoties uz “izstrādātāju drošības margu” aspektu, jo mākslīgā intelekta atbalstīta kodēšana turpina… vairot kodu, kļūdas un neparedzētus pārsteigumus.
Viņi to reklamē kā izstrādātāju primāro drošības risinājumu, kas automātiski atzīmē riskus, nepārvēršot katru sprintu par atbilstības murgu. Nedaudz dīvainākais ir tas, cik ātri viņi ir auguši — tirgus acīmredzami maksā par "lūdzu, apturēt manu mākslīgā intelekta kodu no ievainojamību izplatīšanas".
👩💻 Anthropic paplašina Claude Code ārpus izstrādātāju uzdevumiem ar Cowork ↗
Anthropic virza Claude Code uz plašāku “strādā ar mani” noskaņu, izmantojot Cowork — nevis tikai kodēšanas palīdzību, bet gan sadarbības asistentu, kas var iekļauties darbplūsmās.
Tā ir daļa no plašākas tendences, kur koda asistenti pārstāj būt par izsmalcinātu automātiskās pabeigšanas funkciju un sāk darboties kā daļēji autonomi komandas biedri… kas ir aizraujoši, satraucoši vai abi – atkarībā no tā, kā noritēja jūsu pēdējā sabiedrisko attiecību pārskatīšana.
🧯 depthfirst paziņo par 40 miljonu dolāru vērtu A sērijas finansējumu pasaules programmatūras nodrošināšanai ↗
“depthfirst” piesaistīja 40 miljonus dolāru , lai izveidotu mākslīgā intelekta balstītu pieeju programmatūras drošībai — tādu, kas paredzēta, lai atklātu reālas ievainojamības ar mazāk viltus trauksmēm (patiesībā mūžīgais sapnis).
Viņi pozicionē sevi kā “lietišķās mākslīgā intelekta laboratoriju” drošības jomā, un finansējums ir vērsts uz pētniecības un produktu paplašināšanu. Ja mākslīgais intelekts palīdz ātrāk rakstīt vairāk koda, pretpasākums būtībā ir mākslīgā intelekta palīdzība to ātrāk aizsargāt — čūska, kas apēd čūsku, tērpusies trenčmētelī.
Bieži uzdotie jautājumi
Ko OpenAI partnerība ar Cerebras nozīmē reakcijas ātrumam?
OpenAI apgalvo, ka Cerebras partnerība pievieno 750 MW īpaši zema latentuma mākslīgā intelekta skaitļošanas jaudas, kuras mērķis ir padarīt atbildes reāllaika reakcijas jūtamākas. Praktiskais ieguvums ir ātrāki secinājumu cikli — jautā, domā, atbildi —, lai mijiedarbība notiktu raitāk. Tas var arī padarīt lielākas darba slodzes vienmērīgākas, bez garām, neērtām pauzēm. Jaudas ieviešana ir plānota pakāpeniski līdz 2028. gadam.
Kad 750 MW Cerebras aprēķinu faktiski būs pieejami?
Paziņojumā tas tiek raksturots kā pakāpeniska ieviešana, līdz 2028. gadam nodrošinot lielāku jaudu, nevis visu uzreiz. Pakāpeniskas ieviešanas gadījumā vispirms parasti parādās pirmie ieguvumi, kas pēc tam paplašinās, infrastruktūrai paplašinoties. Ja sekojat līdzi ietekmei, skaidrākās pazīmes parasti parādās kā zemāka latentuma pakāpe un stabilāka veiktspēja slodzes laikā. Galvenais notikums ir daudzgadu ieviešana.
Kā Google Gemini izmanto Gmail, meklēšanas un YouTube vēsturi personalizēšanai?
Google plāns ir padarīt Gemini personalizētāku, izmantojot datus no tādiem avotiem kā Gmail, Meklēšana un YouTube vēsture, bet tikai tad, ja jūs tam piekritīsiet. Pēc noklusējuma tas ir aprakstīts kā izslēgts, kas ir svarīgi privātuma un gaidu noteikšanas ziņā. Mērķis ir panākt, lai Gemini secinātu jūsu preferences un kontekstu, lai atbildes šķistu mazāk vispārīgas. Daudzi lietotāji izvērtēs ērtības salīdzinājumā ar to, cik daudz “atmiņas” viņi jūtas ērti iespējojot.
Vai Gemini personalizācija ir ieslēgta automātiski, un kāds ir kompromiss attiecībā uz privātumu?
Šajā ieviešanā Google pēc noklusējuma novieto šo funkciju kā izvēles un izslēgtu. Tas nozīmē, ka jūs izvēlētos ļaut Gemini izmantot signālus no tādiem produktiem kā Gmail vai YouTube vēsture, lai pielāgotu atbildes. Kompromiss ir vienkāršs: vairāk konteksta var uzlabot atbilstību, taču tas arī palielina personas datu apjomu, kas tiek iesaistīts pieredzē. Izplatīta pieeja ir to iespējot selektīvi un regulāri pārskatīt iestatījumus.
Kādus nosacījumus ASV izvirzīja Nvidia H200 mikroshēmu pārdošanai Ķīnai?
Šeit aprakstītajam apstiprinājumam ir noteikti drošības pasākumi, tostarp prioritāte ASV piegādēm, papildu pārskatīšanas pasākumi un ierobežojumi attiecībā uz to, kur mikroshēmas galu galā var nonākt. Debates ir arī skaidri formulētas: daži likumdevēji saskata risku valsts drošībai, savukārt citi apgalvo, ka konkurētspēja ir problēma — ja ASV uzņēmumi nepārdod, var paātrināties alternatīvu piegādātāju vai vietējo aizstājēju parādīšanās. Tas ir politikas solis ar stratēģisku nolūku un sarežģītiem kompromisiem.
Kāpēc mākslīgā intelekta drošības jaunuzņēmumi, piemēram, Aikido un depthfirst, tieši tagad piesaista lielus līdzekļus?
Galvenā tēma ir tāda, ka ar mākslīgā intelekta palīdzību kodēšana vairo koda izvadi — un līdz ar to arī kļūdas un neparedzētas ievainojamības —, tāpēc pieaug pieprasījums pēc izstrādātājiem draudzīgām drošības barjerām. Aikido tiek pozicionēts kā “izstrādātājiem pirmajā vietā” esoša drošība, kas signalizē par riskiem, nepārvēršot katru sprintu atbilstības berzē, savukārt depthfirst piedāvā mākslīgā intelekta pieeju, kuras mērķis ir atklāt reālas problēmas ar mazāk viltus trauksmēm. Pieaugot koda apjomam, “ātrāka aizsardzība” kļūst par budžeta pozīciju, nevis kaut ko patīkamu.