Mākslīgā intelekta ziņas, 2026. gada 19. februāris

Mākslīgā intelekta ziņu kopsavilkums: 2026. gada 19. februāris

🇬🇧 Drosmīga likme uz mākslīgo intelektu, lai Apvienotā Karaliste saglabātu vadošo pozīciju zinātnes un pētniecības sasniegumos, sākot no veselības aprūpes līdz labākiem sabiedriskajiem pakalpojumiem

Apvienotās Karalistes galvenais publiskais pētniecības finansētājs (UKRI) publicēja savu pirmo specializēto mākslīgā intelekta stratēģiju, būtībā iestājoties par lielāku mākslīgā intelekta izmantošanu pētniecībā, labākām mākslīgā intelekta prasmēm, labāku mākslīgā intelekta infrastruktūru — visu kopumā.

Tas apvieno nopietnu finansējumu mākslīgajam intelektam, kā arī konkrētus ieguldījumus, piemēram, Kembridžas DAWN superdatora modernizēšanu un atbalstu darbam “Mākslīgais intelekts zinātnei” (nav pārsteigums, ka tiek pieminēta zāļu atklāšana). Tas skan šādi: “veikt pamatus, bet arī sniegt rezultātus”... kas ir noskaņojums vai virves spriedze, vai abi.

🛡️ OpenAI un Microsoft pievienojas Apvienotās Karalistes starptautiskajai koalīcijai, lai aizsargātu mākslīgā intelekta attīstību

OpenAI un Microsoft apņēmās piešķirt jaunu finansējumu Apvienotās Karalistes Mākslīgā intelekta drošības institūta saskaņošanas projektam — neatkarīgiem saskaņošanas pētījumiem paredzētais fonds ir kļuvis lielāks, un viņi to raksturo kā uzticības veidošanu, nevis tikai nūģu izspiešanu.

Šeit būtiska ir struktūra: starptautiska koalīcija, vairāki finansētāji un virkne grantu, kas tiek piešķirti vairākām valstīm. Tā ir “saskaņošana kā ekosistēma”, nevis “saskaņošana kā vienas laboratorijas slepenā recepte”... pat ja laboratorijas joprojām glabā lielāko daļu receptes.

🧠 Neatkarīgu pētījumu par mākslīgā intelekta saskaņošanu veicināšana

OpenAI piešķīra 7,5 miljonus ASV dolāru Apvienotās Karalistes AISI saskaņošanas projektam — līdzekļi, kas īpaši paredzēti neatkarīgām komandām, kuras veic drošības/saskaņošanas darbus ārpus pierobežas laboratorijām.

Prezentācija ir diezgan tieša: pierobežas laboratorijas var veikt saskaņošanu, kurā liela nozīme ir piekļuvei modeļiem, taču šai jomai ir nepieciešamas arī īpatnējas, daudzveidīgas, nekorelētas idejas no nepiederošajiem (viņu vārdi ir jaukāki, bet jūs saprotat). Zem visa tā slēpjas arī skaidra "iteratīvas ieviešanas" pasaules uzskats - nosūtīt, mācīties, nocietināt... atkārtot... vai vismaz tā šķiet.

💳 Valsts kase publicē divus jaunus resursus, lai vadītu mākslīgā intelekta izmantošanu finanšu sektorā

ASV Valsts kase ir izlaidusi divus praktiskus finanšu rīkus: kopīgu mākslīgā intelekta leksiku (lai visi pārstātu strīdēties par vārdu nozīmi) un finanšu pakalpojumu mākslīgā intelekta riska pārvaldības sistēmu, kas pielāgo NIST pieeju banku darbības realitātei.

Šī struktūra ir uz risku balstīta pārvaldība ar pietiekami detalizētu informāciju, lai to varētu izmantot atbilstības komandas, regulatori un pārdevēji, neradot katram savas definīcijas paralēli. Tas ir tāds prozaisks dokuments, kas klusi nosaka to, kas tiek apstiprināts… kas ir spēcīgs dokumentācijas skapja stilā.

🪖 Pentagona tehniskais direktors saka, ka Anthropic ierobežo Claude AI militāro izmantošanu "nav demokrātiski"

Pentagona tehnoloģiju vadītājs publiski noraidīja Anthropic lēmumu ierobežot Claude izmantošanu militāriem mērķiem, nosaucot to par "nedemokrātisku", ja viens uzņēmums noteiktu papildu noteikumus, kas pārsniedz likumus un regulējumu.

Tas atrodas uz plašākas cīņas fona, kur vairākiem pierobežas modeļu uzņēmumiem ir aizsardzības līgumi, lai pielāgotu genAI militāriem kontekstiem, un berzes punkts ir tieši tāds, kādu jūs varētu sagaidīt: uzņēmumu lietošanas politika pret valdības vēlmi pēc operatīvas izmantošanas. Viss šis process šķiet kā rokasspiediens, kas fotoattēla vidū pārvēršas par cīņu ar rokām.

Bieži uzdotie jautājumi

Kas ir UKRI mākslīgā intelekta stratēģija un kāpēc tā ir svarīga?

UKRI pirmajā īpaši izstrādātajā mākslīgā intelekta stratēģijā ir argumentēts par mākslīgā intelekta tālāku iekļaušanu pētniecības procesā — prasmēs, infrastruktūrā un praktiskā ieviešanā. Galvenā vadlīnija ir “izveidot pamatus, bet arī nodrošināt rezultātus”, kas liecina par spiedienu pārvērst pētniecības ieguldījumus sabiedrībai pieejamā labumā. Tā arī norāda uz visaptverošu pieeju: ne tikai finansēšanas modeļi, bet arī skaitļošanas metodes, cilvēki un ieviešanas ceļi, kas nodrošina progresa noturību.

Ko patiesībā ļauj Kembridžas DAWN superdatora modernizācija?

Kembridžas DAWN superdatora modernizācija tiek pozicionēta kā infrastruktūras solis, kas atbalsta vērienīgāku mākslīgā intelekta darbu visā Apvienotās Karalistes pētniecībā. Praktiski tas parasti nozīmē lielāku apmācību, novērtēšanas un liela mēroga eksperimentu jaudu, ko mazākām iekārtām ir grūti efektīvi veikt. Daudzos cauruļvados spēcīgāka koplietotā skaitļošana mazina universitāšu sastrēgumus un paātrina pāreju no prototipiem uz publicējamiem, pārbaudāmiem rezultātiem.

Ko nozīmē “AI zinātnei” Apvienotās Karalistes mākslīgā intelekta stratēģijas kontekstā?

“Mākslīgais intelekts zinātnei” tiek pasniegts kā mākslīgā intelekta metožu izmantošana, lai paātrinātu atklājumus, nepārprotami kontrolējot zāļu atklāšanas procesu. Praksē tas bieži ietver mākslīgā intelekta izmantošanu hipotēžu ģenerēšanai, plaša mēroga dizaina telpu meklēšanai vai eksperimentu prioritāšu noteikšanai. Uzsvars liecina par vēlmi pēc rezultātiem, kas skaidri sniedzas ārpus akadēmiskās vides — jaunām metodēm, īsākiem cikliem un lietojumprogrammām, kas savienojas ar veselības aprūpi un sabiedriskajiem pakalpojumiem.

Kas ir Apvienotās Karalistes Mākslīgā intelekta drošības institūta saskaņošanas projekts un kas to finansē?

Apvienotās Karalistes Mākslīgā intelekta drošības institūta saskaņošanas projekts tiek raksturots kā starptautiska koalīcijas struktūra, kas atbalsta neatkarīgus saskaņošanas pētījumus, un tajā piedalās vairāki finansētāji. OpenAI un Microsoft tiek izcelti kā jaunu finansējumu sniedzoši uzņēmumi, kas tiek raksturoti kā uzticības veidošanas un ekosistēmas atbalsta projekti. Modelis ir “saskaņošana kā ekosistēma”, kur dotācijas tiek piešķirtas komandām dažādās valstīs, nevis darbs tiek koncentrēts pierobežas laboratorijās.

Kāpēc OpenAI ieguldīja 7,5 miljonus dolāru neatkarīgos mākslīgā intelekta saskaņošanas pētījumos?

OpenAI deklarētā loģika ir tāda, ka robežlaboratorijas var veikt drošības darbu, kas ir atkarīgs no dziļas piekļuves modeļiem, savukārt neatkarīgas komandas var sniegt dažādas, nekorelētas idejas, kuras laboratorijas varētu nepamanīt. Uzsvars tiek likts uz jomas paplašināšanu, pārsniedzot "vienas laboratorijas slepeno recepti". Rakstā arī norādīts uz "iteratīvas ieviešanas" pasaules uzskatu — ieviest, mācīties no ieviešanas atsauksmēm, nocietināt sistēmas un pēc tam atkārtot.

Kā ASV Valsts kases mākslīgā intelekta resursi ietekmē finanšu sektora mākslīgā intelekta pārvaldību?

ASV Valsts kase publicēja kopīgu mākslīgā intelekta leksiku un finanšu pakalpojumu mākslīgā intelekta riska pārvaldības sistēmu, kas pielāgota no NIST stila domāšanas. Mērķis ir samazināt definīciju izplešanos un sniegt atbilstības komandām, regulatoriem un pārdevējiem kopīgu rokasgrāmatu. Daudzās organizācijās šādi dokumenti nosaka to, kas tiek apstiprināts praksē, jo tie standartizē kontroles, dokumentācijas un uz risku balstītas lēmumu pieņemšanas gaidas.

Vakardienas mākslīgā intelekta ziņas: 2026. gada 18. februāris

Atrodiet jaunāko mākslīgo intelektu oficiālajā mākslīgā intelekta palīgu veikalā

Par mums

Atpakaļ uz emuāru