🧠 Google DeepMind vadītājs saka, ka mākslīgā intelekta izstrāde drīz varētu sasniegt sastrēgumu, lūk, kāpēc ↗
DeepMind vadītājs paceļ nelielu dzeltenu karogu: progress, iespējams, vairs nebūs vienmērīgs un taisns. Lieta tāda, ka "vieglās uzvaras" no mērogošanas varētu sākt izzust, un vājās vietas varētu pārcelties no GPU uz datiem, enerģiju, novērtēšanu… nepievilcīgo santehniku.
Tas nav gluži postoši – drīzāk atgādinājums, ka mums varētu būt nepieciešami jauni triki, ne tikai spēcīgāki āmuri. Atkarībā no kofeīna līmeņa tas izklausās gan nopietni, gan klusi aizraujoši.
🔊 OpenAI izstrādā mākslīgā intelekta ierīces, tostarp viedskaļruni, informatīvie ziņojumi ↗
Tiek ziņots, ka OpenAI virzās uz aparatūras attīstību, sākot ar viedu skaļruņa stila ierīci, kas varētu atrasties vidējā patērētāju cenu diapazonā. Pagrieziena punkts ir tas, ka tajā ir iekļauta kamera, tāpēc tā nav tikai "balss asistente, bet arī skaļāka"; tā ir tuvāka "apkārtējās vides mākslīgā intelekta istabas biedram"... kas izklausās praktiski un vienlaikus nedaudz satraucoši.
Vēlāk tiek runāts arī par citām ierīču kategorijām, taču īstermiņa jēga ir šāda: OpenAI vēlas tiešu kanālu jūsu ikdienas dzīvē, kas netiek filtrēts caur kāda cita platformu. Neliela zemes sagrābšana, neliels produkta sapnis – abi var būt patiesi.
💰 Nvidia, kā ziņots, plāno ieguldīt 30 miljardus dolāru OpenAI nākamajā finansējuma kārtā ↗
Nvidia un OpenAI varētu vienoties par vēl vienu lielu darījumu, un Nvidia, kā ziņots, OpenAI nākamajā kārtā ir noskatījusi patiesi absurdu investīciju skaitli. Netiešie vērtēšanas aprēķini ir… pikanti, it kā jūsu smadzenes mēģinātu iztēloties skaitli, un tas vienkārši pārvēršas miglā.
Interesanti ir stratēģiskais cikliskums: uzņēmums, kas pārdod lāpstas, vēlas lielāku daļu zelta raktuvēs. Vai varbūt tagad ir otrādi – zelta raktuves pērk tiesības uz lielāku lāpstu skaitu, un lāpstu ražotājs arī vēlas daļu no tām. Savādi eleganti, vēlīnā kapitālisma stilā.
🛡️ Anthropic laiž klajā Claude Code Security mākslīgā intelekta darbinātai koda skenēšanai ↗
Anthropic pārgāja ļoti praktiskā virzienā: ar mākslīgā intelekta palīdzību veikta drošības skenēšana, kas meklē ievainojamības reālās koda bāzēs un pēc tam iesaka ielāpus, ko cilvēki var pārskatīt. Uzsvars, šķiet, ir uz “cilvēka iesaisti procesā”, jo neviens nevēlas pārāk pārliecinātu robotu, kas klusībā “labo” produktu un pārvērš jūsu lietotni abstraktā mākslas darbā.
Lielāks slēptais motīvs ir aizsardzības paātrinājums: ja uzbrucēji var izmantot mākslīgo intelektu, lai ātrāk atrastu kļūdas, arī aizstāvjiem ir nepieciešama sava turbo poga. Tas ir līdzīgi kā labajiem puišiem iedot nakts redzamības brilles… un cerēt, ka baterijas noslēpumaini nepazudīs.
🎮 Microsoft jaunais spēļu nodaļas vadītājs sola nepārpludināt ekosistēmu ar "bezgalīgu mākslīgā intelekta atkritumu" ↗
Microsoft spēļu līderības maiņa nāk ar ļoti mūsdienīgu solījumu: jā, mākslīgais intelekts parādīsies, bet nē, viņi nemēģina noslīcināt spēlētājus algoritmiskā satura dubļos. “Bezgalīga mākslīgā intelekta sūda” ir tik sāpīgi precīza frāze, ka tā gandrīz sāp – kā aprakstīt ātrās nūdeles kā “bezgalīgas sāls lentes”
Signāls šeit ir pozicionēšanās: Microsoft vēlas, lai to uzskatītu par gaumes, ne tikai mēroga, priekšrocību ziņā. Vai tas izdzīvos, kad satura rūpnīcas sāks darboties, vēl jāredz.
🕹️ Xbox vadītājs Fils Spensers pamet Microsoft ↗
Fila Spensera aiziešana ir liels kultūras brīdis Xbox, un pēcteča sistēma ir ievērojami vērsta uz mākslīgo intelektu, un vadība nāk no Microsoft CoreAI puses. Tas automātiski nenozīmē “mākslīgā intelekta spēles visur”, taču tas virza uz to, ka “mākslīgais intelekts pastāvīgi būs daļa no stratēģijas sarunām”
Spensera ēra bija par pakāpenisku pārbūvi un lielām likmēm — tagad izskatās, ka nākamā ēra varētu būt par to visu apvienošanu ar automatizāciju, personalizāciju un jebkuru citu “spēļu nākotni”, par kuru pārvērtīsies modeļi, kad viņi iegūs rīku ķēdes.
Bieži uzdotie jautājumi
Ko nozīmē DeepMind vadītāja teiktais, ka mākslīgā intelekta izstrāde varētu sasniegt kritisko punktu?
“Mākslīgā intelekta izstrādes sašaurinājums” attiecas uz iespēju, ka mūsdienās tiešie ieguvumi, ko sniedz vienkārša modeļu mērogošana, varētu sākt mazināties. Tā vietā, lai grafiskie procesori būtu vienīgais ierobežojums, ierobežojumi varētu pāriet uz datu kvalitāti, enerģijas izmaksām vai grūtībām pārliecinoši novērtēt progresu. Tas nav obligāti pastāvīgs palēninājums — drīzāk signāls, ka nākamajam lēcienam var būt nepieciešamas atšķirīgas pieejas, ne tikai lielāki klasteri.
Kādas vājās vietas varētu aizstāt GPU, ja mākslīgā intelekta izstrāde sasniegtu kritisko punktu?
Ja rodas mākslīgā intelekta izstrādes šķēršļi, galvenā tēma kļūst par “santehniku”: augstas kvalitātes datu nodrošināšana, datu centru darbināšana un dzesēšana, kā arī modeļu uzlabojumu demonstrēšana būtiskos veidos. Novērtēšana pati par sevi var kļūt par šķērsli, ja etaloni ir piesātināti vai neatspoguļo reālo vērtību. Daudzos cauruļvados izvietošanas ierobežojumi, uzticamības prasības un izmaksu griesti arī nosaka to, kas paliek praktiski.
Kāpēc OpenAI, kā ziņots, izstrādā viedu skaļruņa stila mākslīgā intelekta ierīci ar kameru?
Ziņojumā norādīts, ka OpenAI vēlas tiešu patērētāju aparatūras kanālu, nevis pilnībā pastāvēt kāda cita platformā. Viedais skaļrunis ar kameru norāda uz “apkārtējās vides” palīdzību, kas spēj interpretēt vairāk nekā tikai balsi. Lietotājiem galvenie piesardzības pasākumi ir privātuma prasības, video apstrādes vieta un pieejamās vadības ierīces uztveršanas atspējošanai vai ierobežošanai ikdienas telpās.
Kāpēc Nvidia ieguldītu tik lielu summu OpenAI nākamajā finansējuma kārtā?
Ziņotā interese atspoguļo stratēģisku cilpu: Nvidia gūst labumu, kad strauji pieaug pieprasījums pēc mākslīgā intelekta, un lielāka līdzdalība lielā modeļu veidotājā varētu pastiprināt šo saskaņotību. Tas arī norāda, cik savstarpēji saistītas ir kļuvušas skaitļošanas iespējas un progresīvu modeļu izstrāde. Ja investīcijas notiks baumotajā mērogā, tas uzsvērtu, cik liela kapitāla un infrastruktūras daļa tagad ir būtiska, lai saglabātu konkurētspēju augstākā līmeņa mākslīgā intelekta jomā.
Kas ir Anthropic Claude Code Security un kā palīdz mākslīgā intelekta darbināta koda skenēšana?
Claude Code Security tiek pozicionēts kā mākslīgā intelekta atbalstīta ievainojamību noteikšanas rīks, kas piedāvā labojumus cilvēkiem, kurus pārskatīt. Uzsvars uz “cilvēka iesaisti procesā” ir svarīgs, jo automatizēti ielāpi var radīt regresijas vai nedrošas izmaiņas, ja tos piemēro akli. Praksē šie rīki var paātrināt triāžu, agrāk atklāt riskantus modeļus un samazināt labošanas laiku, īpaši, ja aizstāvjiem ir jāspēj sekot līdzi ātrākai mākslīgā intelekta atbalstītai atklāšanai uzbrucēja pusē.
Vai Microsoft spēļu vadības maiņa novedīs pie vairāk mākslīgā intelekta satura vai mazāk "mākslīgā intelekta paviršības"?
Ziņojumā ir norādīts, ka Microsoft vēlas izvairīties no spēļu pārpludināšanas ar zemas kvalitātes, masveidā ražotu “mākslīgā intelekta atkritumu” modeli, pat ja mākslīgais intelekts kļūst par daļu no stratēģijas sarunas. Līderība, kas nāk no mākslīgajam intelektam blakus esošas organizācijas, automātiski nenozīmē nebeidzamu ģenerēta satura apjomu, taču tā ietver vairāk eksperimentu ar rīkiem, personalizāciju un ražošanas darbplūsmām. Īstais pārbaudījums būs tas, vai kvalitātes barjeras noturēsies, kad automatizācija padarīs satura veidošanu lētāku.