Mākslīgā intelekta ziņas, 2026. gada 4. marts

Mākslīgā intelekta ziņu kopsavilkums: 2026. gada 4. marts

🏛️ Valdība izveidos jaunu laboratoriju, lai Apvienotā Karaliste saglabātu straujo attīstību mākslīgā intelekta jomā

Apvienotā Karaliste veido valdības atbalstītu Fundamentālo mākslīgā intelekta pētniecības laboratoriju, reklamējot to kā "neparastu" darbu – tādu, kas ir riskants, lēns un dažreiz atmaksājas tā, ka visi pārējie izskatās tā, it kā būtu iesnaucušies. ( GOV.UK )

Uzsvars nav tikai uz “lielākiem modeļiem, vairāk GPU” — tas ir vērsts uz pastāvīgu trūkumu, piemēram, halucināciju, īsas atmiņas un neparedzamas spriešanas, novēršanu, kā arī nodrošina pētniekiem piekļuvi nopietniem skaitļošanas resursiem, izmantojot AI pētniecības resursu. Izklausās ļoti saprātīgi… un arī, klusi, kā mēģinājums apturēt Apvienotās Karalistes labākos prātus no tūlītējas izsūknēšanas citur. ( GOV.UK )

🧨 Nvidia izpilddirektors norāda uz investīciju pārtraukšanu OpenAI un Anthropic

Džensens Huangs signalizē, ka Nvidia, iespējams, neturpinās investīcijas mākslīgā intelekta perspektīvajās laboratorijās tādā pašā veidā — IPO dinamikas (un apspriežamo pārbaužu apjoma) dēļ šāda veida finansējumu ir grūtāk īstenot. ( Reuters )

Tā ir toņu maiņa, ko ir vērts atzīmēt: Nvidia ir šī uzplaukuma “ciršanas un lāpstas” karalis, tomēr tas liek domāt, ka “kalnraču daļu iegūšana” vairs ne vienmēr ir galvenais mērķis. Vai varbūt tā ir tikai skaļa ierobežošana, ko izpilddirektori dara, piemēram, elpošana. ( Reuters )

🧩 Ekskluzīvi: Liela tehnoloģiju grupa atbalsta Anthropic Pentagona cīņā, investoriem cenšoties mazināt sadursmi par mākslīgā intelekta aizsardzības pasākumiem

Strupceļš uzņēmumā Anthropic Pentagonā pārvēršas par īstu spiediena katlu — investori, kā ziņots, vēlas samazināt temperatūru, savukārt uzņēmums cenšas ievērot savu nostāju attiecībā uz drošības pasākumiem (īpaši attiecībā uz novērošanu). ( Reuters )

Stāsta zemteksts ir gandrīz skaļāks par pašu tekstu: mākslīgā intelekta laikmetā līguma formulējums nav “juridiska sīkumu ķengāšana”, bet gan būtībā produkta politika, un tā izlemj, vai modelis kļūst par instrumentu, ieroci vai plašu atbildību. ( Reuters )

🪖 Sems Altmans atzīst, ka OpenAI nevar kontrolēt Pentagona mākslīgā intelekta izmantošanu

Altmans esot teicis darbiniekiem, ka OpenAI nevar kontrolēt, kā Pentagons izmanto savu mākslīgo intelektu pēc tā izvietošanas, kas notiek ar blīkšķi, jo tas nosauc precīzu baiļu avotu, ap kuru cilvēki ir bijuši. ( The Guardian )

Plašāks fons ir pieaugošā berze starp “mēs palīdzēsim ar noteikumiem” un “mēs palīdzēsim, punkts”, kā arī iekšēja un publiska reakcija, kad militārā ieviešana šķiet sasteigta vai oportūnistiska. Ētika šeit ir nevis glīta rinda, bet gan slapjas krāsas izšļakstīšanās — visi tajā iekāpj un tad strīdas, kura kurpe tā ir. ( The Guardian )

🧬 Jauna mākslīgā intelekta genomikas stipendija ar Sanger institūtu un Google DeepMind

Wellcome Sanger institūts uzsāk DeepMind finansētu akadēmisko stipendiju programmu, kas koncentrējas uz mākslīgā intelekta pielietošanu genomikā — tā ir pirmā šāda veida vieta DeepMind stipendiātam šajā konkrētajā jomā. ( sanger.ac.uk )

Interesanti (un, atklāti sakot, nedaudz atsvaidzinoši) ir uzsvars uz nepietiekami izpētītām genomikas problēmām, kurās mākslīgais intelekts vēl nav visur, kā arī skaidrā norāde, ka DeepMind nevada kolēģa pētījumus. Tas ir līdzīgi kā iedot kādam raķeti un teikt: “Atklāj kaut ko!”, nevis “Optimizējiet mūsu ceļvedi!” ( sanger.ac.uk ).

Bieži uzdotie jautājumi

Kas ir Apvienotās Karalistes valdības atbalstītā Fundamentālā mākslīgā intelekta pētniecības laboratorija un ko tā darīs?

Valdības atbalstītā Fundamentālā mākslīgā intelekta pētniecības laboratorija tiek pozicionēta kā "neparasta" pētniecības projekts – augsta riska darbs, kura atpelnīšana var prasīt laiku. Tā vietā, lai koncentrētos tikai uz arvien lielāku modeļu mērogošanu, tā tiecas risināt tādas pastāvīgas problēmas kā halucinācijas, īsa atmiņa un neparedzama spriešana. Galvenā doma ir tāda, ka izrāvieni rodas no fundamentāliem pamatiem, nevis tikai no vairāku grafisko procesoru pievienošanas.

Kā Apvienotās Karalistes Fundamentālās mākslīgā intelekta pētniecības laboratorija varētu palīdzēt pētniekiem piekļūt nopietniem skaitļošanas resursiem?

Līdztekus Apvienotās Karalistes Fundamentālās mākslīgā intelekta pētniecības laboratorijai plānā ir uzsvērta piekļuve ievērojamiem skaitļošanas resursiem, izmantojot AI pētniecības resursus. Praksē tas parasti nozīmē, ka pētnieki var veikt eksperimentus, kurus citādi ierobežotu izmaksas vai infrastruktūra. Tas arī ļauj komandām testēt idejas tādā mērogā, kur tādas problēmas kā uzticamība un robustums kļūst konkrētas, ne tikai teorētiskas.

Kāpēc Apvienotā Karaliste uzsver halucinācijas, īsu atmiņu un neparedzamu spriešanas spēju?

Šie trūkumi ir tādi, kas parādās ieviešanas laikā un var ātri graut uzticību. Norādītā uzmanības centrā ir nevis tikai spējas, bet gan uzticamība — samazināt izdomātus rezultātus, uzlabot modeļu spēju apstrādāt ilgāku kontekstu un padarīt spriešanu mazāk nepastāvīgu. Šāda veida darbs bieži vien ir lēnāks un riskantāks, tāpēc tas tiek klasificēts kā fundamentāli pētījumi.

Ko patiesībā signalizē Nvidia toņa maiņa attiecībā uz ieguldījumiem OpenAI vai Anthropic?

Ziņojumā tas tiek interpretēts kā mājiens, ka Nvidia, iespējams, neturpinās investīcijas progresīvajās laboratorijās tādā pašā veidā, jo īpaši tāpēc, ka IPO dinamika un milzīgie čeku apjomi sarežģī šo stratēģiju. Pat kā mākslīgā intelekta aparatūras līderim, kas darbojas ar "savtīgu" pieeju, tas liek domāt, ka īpašumtiesību daļas ne vienmēr ir labākais risinājums. Tā varētu būt arī piesardzīga vēstījuma izpausme, kas ir izplatīta vadības komentāros.

Kāpēc Anthropic strīds ar Pentagonu par "drošības valodu" ir tik liels jautājums?

Raksta galvenais arguments ir tāds, ka līguma formulējums var kļūt par produkta politiku, īpaši, ja tas skar novērošanu un citus sensitīvus lietojumus. Ziņots, ka investori vēlas mazināt konfliktu, savukārt uzņēmums cenšas ievērot savu nostāju attiecībā uz drošības pasākumiem. Daudzos mākslīgā intelekta ieviešanas gadījumos šīs klauzulas nosaka, kam sistēmu var izmantot un kādus riskus uzņēmums faktiski uzņemas.

Ko tas nozīmē, ja Sems Altmans saka, ka OpenAI nevar kontrolēt, kā Pentagons izmanto mākslīgo intelektu?

Tas apraksta praktisku ierobežojumu: tiklīdz rīks ir ieviests, sākotnējam izstrādātājam var būt ierobežotas iespējas regulēt tā tālāku izmantošanu. Tas ir ļoti svarīgi, jo norāda uz galvenajām bailēm, ko cilvēki pauž par militāro ieviešanu – līgumu slēgšanas posmā var pastāvēt noteikumi, taču to izpilde var būt sarežģīta. Tas atspoguļo arī plašāku spriedzi starp "palīdzību ar ierobežojumiem" un "palīdzību neatkarīgi no tā"

Vakardienas mākslīgā intelekta ziņas: 2026. gada 3. marts

Atrodiet jaunāko mākslīgo intelektu oficiālajā mākslīgā intelekta palīgu veikalā

Par mums

Atpakaļ uz emuāru