Mākslīgā intelekta ziņas, 2026. gada 1. februāris

Mākslīgā intelekta ziņu kopsavilkums: 2026. gada 1. februāris

Indonēzija atļauj Elona Maska vadītājam Grokam atsākt darbu pēc aizlieguma seksualizētu attēlu dēļ

Indonēzija atcēla xAI vietnes Grok darbības apturēšanu pēc aizlieguma, kas bija saistīts ar mākslīgā intelekta ģenerētu seksuāla rakstura saturu, un amatpersonas signalizēja, ka tā var atgriezties stingrākas uzraudzības ietvaros.

Galvenais secinājums ir atbilstības spiediens: platformas var ātri atgriezties, bet tikai tad, ja tās apņemas ievērot stingrākus drošības pasākumus. Tas būtībā ir "laipni lūgti atpakaļ, bet nelieciet mums to darīt vēlreiz", kas... taisnīgi.

💰 Oracle plāno šogad piesaistīt parādu un kapitālu līdz 50 miljardiem dolāru

Oracle apgalvo, ka vēlas piesaistīt ievērojamu naudas summu mākoņpakalpojumu jaudu paplašināšanai, nepārprotami sasaistot šo pieprasījumu ar mākslīgā intelekta virzītu pieprasījumu.

Tāds tagad ir klusais modelis: mākslīgā intelekta pieprasījums pārvēršas kapitālizdevumos, kapitālizdevumi pārvēršas parādos, un visi izliekas, ka tas ir pilnīgi normāli. Tas ir... un tas nav.

🍜 "Tautas tēvs" Jensens Huangs mudina Nvidia piegādātājus apmeklēt Taivānu, kurā viņus apbēra ar pūli

Džensens Huangs izmantoja ļoti publisku braucienu uz Taivānu, lai uzslavētu piegādātājus un arī mudinātu viņus palielināt ražošanu, jo mākslīgā intelekta pieprasījums joprojām ietekmē visu.

Tā ir pa pusei slavenību turneja, pa pusei piegādes ķēdes sarunas, kas ir teikums, kam nevajadzētu būt loģiskam, bet kaut kā tagad ir.

🧾 Nvidia pārstāvis Huangs saka, ka saruna par "100 miljardu dolāru lielu OpenAI investīciju" nebija apņemšanās

Nvidia izpilddirektors centās mazināt cerības saistībā ar ideju par milzīgām investīcijām OpenAI, sakot, ka tās nav saistības – drīzāk kaut kas tāds, kas tiek novērtēts, tiklīdz tas kļūst reāls.

Tas izklausās pēc garlaicīgas korporatīvas rīkļu nokāstīšanās, bet tam ir nozīme, jo “intereses” tiek pastāvīgi nepareizi interpretētas kā “noslēgts darījums”. Pārsteidzoši viegli to izdarīt, ja skaitļi ir tik lieli.

🧠 Kāpēc zinātnieki sacenšas, lai definētu apziņu

Pētnieku grupa apgalvo, ka mums nav stabilu, plaši atzītu apziņas testu, un ka šī plaisa kļūst par problēmu, mākslīgā intelekta sistēmām un neirotehnoloģijām kļūstot spējīgākām.

Neērtākais ir tas, cik praktiski tas kļūst: bez kopīgām definīcijām ir grūtāk noteikt ētikas robežas, izstrādāt politiku vai pat vienoties par to, kas tiek uzskatīts par kaitējumu. Tas ir līdzīgi kā mēģināt noteikt ceļu satiksmes noteikumus, pirms izlemt, kas ir "ceļš"... pietiekami tuvu, bet ne mierinoši.

Bieži uzdotie jautājumi

Kāpēc Indonēzija atcēla Grok aizliegumu pēc seksualizēto attēlu problēmas?

Amatpersonas atcēla apturēšanu pēc tam, kad aizliegums tika saistīts ar mākslīgā intelekta ģenerētu seksuāla rakstura saturu, un norādīja, ka pakalpojums varētu atgriezties stingrākas uzraudzības apstākļos. Šis vēstījums nozīmē nosacītu atjaunošanu. Platformas var ātri atgriezties, bet tikai tad, ja tās apņemas ievērot stingrākus drošības pasākumus. Tā ir atbilstības atiestatīšana, nevis tīra lapa.

Kādus drošības pasākumus regulatori parasti sagaida pēc tam, kad mākslīgā intelekta platformas darbība ir apturēta seksuāla satura dēļ?

Parasti regulatori vēlas skaidrākas satura politikas, spēcīgāku filtrēšanu un ātrākas augsta riska satura noņemšanas darbplūsmas. Izplatīta pieeja ietver uzlabotu lietotāju ziņošanu, proaktīvāku uzraudzību un dokumentētus eskalācijas ceļus. Viņi var arī sagaidīt pārredzamību par to, kas mainījies un kā tiks novērsta atkārtošanās. Daudzos procesos "uzraudzība" nozīmē pastāvīgas pārbaudes, nevis vienreizēju labojumu.

Kāpēc Oracle piesaista līdz 50 miljardiem dolāru, un ko tas liecina par pieprasījumu pēc mākslīgā intelekta?

Oracle apgalvo, ka plāno piesaistīt lielu parāda un kapitāla apjomu, lai paplašinātu mākoņpakalpojumu jaudu, nepārprotami sasaistot šo pieprasījumu ar mākslīgā intelekta virzītu pieprasījumu. Tas atbilst pazīstamai cilpai: mākslīgā intelekta pieprasījums veicina lielus kapitālieguldījumus, un kapitālieguldījumi bieži vien veicina finansējumu. Tas var būt racionāli, ja lietojums turpina pieaugt, taču tas arī palielina likmes, ja pieprasījums samazinās.

Ko Nvidia, kas virza piegādātājus Taivānā, mums stāsta par mākslīgā intelekta pieprasījuma un piedāvājuma ierobežojumiem?

Džensens Huangs ļoti publiskas vizītes laikā uzslavēja piegādātājus, vienlaikus mudinot viņus palielināt ražošanas apjomus, jo mākslīgā intelekta pieprasījums joprojām patērē jaudas. Šī labās gribas un spiediena kombinācija ir piegādes ķēdes signāls. Tas liecina, ka ierobežojumi joprojām ir reāli pat tad, kad visi svin izaugsmi. Praksē piegādātāju caurlaidspēja kļūst par stratēģisku sašaurinājumu.

Vai OpenAI tiešām bija apņēmies ieguldīt 100 miljardus dolāru no Nvidia?

Nē — Nvidia izpilddirektors sacīja, ka runas par “100 miljardu dolāru lielu OpenAI investīciju” nebija apņemšanās. Tās drīzāk tika formulētas kā kaut kas tāds, lai novērtētu, vai un kad tas kļūs par konkrētu lietu. Šī atšķirība ir svarīga, jo sabiedrības “intereses” var tikt nepareizi interpretētas kā jau iepriekš noslēgts darījums. Ar tik lieliem skaitļiem pat nejaušas spekulācijas var sagrozīt cerības.

Kāpēc zinātnieki sacenšas, lai definētu apziņu, un kāpēc tā ir svarīga mākslīgajam intelektam un neirotehnoloģijām?

Pētnieki apgalvo, ka mums joprojām nav stabilu, plaši atzītu apziņas testu, un šī plaisa kļūst arvien aktuālāka, mākslīgā intelekta sistēmām un neirotehnoloģijām kļūstot arvien spējīgākām. Bez kopīgām definīcijām ir grūtāk noteikt ētikas robežas, izstrādāt politiku vai pat vienoties par to, kas tiek uzskatīts par kaitējumu. Praktiskais risks ir spēcīgu sistēmu regulēšana bez stabilas mērķa koncepcijas.

Vakardienas mākslīgā intelekta ziņas: 2026. gada 31. janvāris

Atrodiet jaunāko mākslīgo intelektu oficiālajā mākslīgā intelekta palīgu veikalā

Par mums

Atpakaļ uz emuāru