Mākslīgā intelekta ziņas, 2026. gada 28. janvāris

Mākslīgā intelekta ziņu kopsavilkums: 2026. gada 28. janvāris

🧬 DeepMind laiž klajā AlphaGenome, lai atklātu slimību ģenētiskos virzītājspēkus

DeepMind atklāja AlphaGenome, mākslīgā intelekta sistēmu, kuras mērķis ir paredzēt, kā DNS mutācijas maina gēnu regulāciju — būtībā, kad, kur un cik skaļi gēni ieslēdzas. Tā var vienā piegājienā skenēt milzīgus DNS posmus, tostarp plašos nekodējošos reģionus, kas bieži vien atgādina bioloģisko tumšo matēriju.

Doma ir diezgan tieša: ātrāka to mutāciju identificēšana, kuras patiešām ir svarīgas tādiem faktoriem kā vēža risks un sarežģītas iedzimtas slimības. Ja tas darbojas, kā reklamēts, pētnieki pavada mazāk laika minēšanā un vairāk laika pareizo lietu testēšanā, kas izklausās acīmredzami, bet būtībā ir visa spēles būtība.

🧑💼 Liza Kendala atzīst, ka mākslīgais intelekts maksās darbavietas

Apvienotās Karalistes tehnoloģiju ministre atklāti paziņoja, ka mākslīgā intelekta ieviešana izraisīs darbavietu zaudēšanu — nevis ierastajā “viss būs labi, apsolu” noskaņojumā. Viņa norādīja uz bažām saistībā ar absolventu darbavietām tādās jomās kā jurisprudence un finanses, un neizlikās, ka kāds varētu piedāvāt konkrētu skaitli.

Vienlaikus valdība stingri atbalsta adaptāciju: ievērojamus centienus apmācīt miljoniem darbinieku mākslīgā intelekta pamatprasmēs, lai Apvienotā Karaliste ātrāk ieviestu mākslīgo intelektu. Tā ir klasiska spriedze – jā, darbavietas pazūd, jā, darbavietas parādās, nē, vidusceļš nebūs vienmērīgs.

🗞️ Apvienotā Karaliste mudina Google atļaut vietnēm atteikties no mākslīgā intelekta pārskatiem

Apvienotās Karalistes konkurences regulatori ierosināja izmaiņas, kas ļautu izdevējiem atteikties no sava satura izmantošanas Google mākslīgā intelekta pārskatos vai atsevišķu mākslīgā intelekta modeļu apmācībai, nesaņemot sodu parastajā meklēšanas rezultātu rangā. Šī “nesaņemot sodu” daļa šeit veic lielu darbu.

Ideja ir no jauna līdzsvarot varu, jo mākslīgā intelekta kopsavilkumi maina to, kā cilvēki klikšķina (vai neklikšķina). Google atbilde būtībā bija šāda: meklēšanas paradumi mainās, mēs apsveram plašākas kontroles iespējas, taču nevajadzētu sadalīt produktu neveikli fragmentētā tā paša versijā… kas ir taisnīgi, bet arī ērti.

🛡️ Jūsu datu aizsardzība, kad mākslīgā intelekta aģents noklikšķina uz saites

OpenAI detalizēti aprakstīja konkrētu aģenta drošības risku: uz URL balstītu datu eksfiltrāciju — kur uzbrucējs apmāna mākslīgo intelektu, lai tas ielādētu URL, kas nemanāmi iegulst privātu informāciju vaicājuma virknē. Pat ja modelis nekad "neatklāj" noslēpumu, pats pieprasījums var to nopludināt. Nejauši un atbruņojoši zemas tehnoloģijas.

To mazināšana ir vienkāršs noteikums ar asām robežām: aģentiem vajadzētu automātiski ielādēt tikai tos URL, kas jau ir publiski pieejami un par kuru eksistenci ir zināms, izmantojot neatkarīgu tīmekļa indeksu. Ja saite netiek pārbaudīta kā publiska, sistēmai vajadzētu palēnināties un atgriezt lietotājam kontroli ar brīdinājumiem — apzināta berze, bet labā veidā.

🇪🇺 Nākamā nodaļa mākslīgā intelekta vēsturē ES

OpenAI publicēja uz ES vērstu plānu, kurā izklāstīta “spēju pārpalikuma” problēma — modeļi var paveikt vairāk, nekā cilvēki un uzņēmumi tos pašlaik izmanto, un šī atšķirība rada nevienmērīgu ieguvumu risku dažādās valstīs. Tas ir līdzīgi kā piederēt sacīkšu automašīnai un braukt ar to tikai līdz veikalam uz stūra... izņemot to, ka stūra veikals ir visa jūsu ekonomika.

Līdzās retorikai ir arī konkrēti elementi: programma, kuras mērķis ir apmācīt tūkstošiem Eiropas MVU mākslīgā intelekta prasmēs, dotācija, kas saistīta ar jauniešu drošības un labklājības pētījumiem, un paplašināta “sadarbības ar valdībām” nostāja. Tā ir daļēji politikas piezīme, daļēji ieviešanas kampaņa – un jā, šīs lietas saplūst kopā.

🔐 Mākslīgā intelekta risks sastopas ar kiberpārvaldību: NIST kibermākslīgā intelekta profila projekts

Jauns NIST profila projekts (izmantojot juridiskā biroja raksta analīzi) koncentrējas uz to, kā organizācijām vajadzētu integrēt mākslīgo intelektu (AI) kiberdrošības pārvaldībā — gan pašu AI sistēmu nodrošināšanā, gan AI izmantošanā kiberaizsardzības uzlabošanai. Brīvprātīgi uz papīra, bet laika gaitā "brīvprātīgi" mēdz kļūt par sagaidāmu.

Projektu grupas strādā pie tādām tēmām kā mākslīgā intelekta komponentu nodrošināšana un mākslīgā intelekta iespējotas aizsardzības ieviešana, tostarp piegādes ķēdes apsvērumi un aģentu tipa automatizācija reaģēšanas darbplūsmās. Galvenā doma ir šāda: uztvert mākslīgo intelektu gan kā jaunu uzbrukuma virsmu, gan jaunu rīku kopumu, un neizlikties, ka tie viens otru atceļ.

Bieži uzdotie jautājumi

Kas ir DeepMind AlphaGenome un kādu problēmu tas cenšas atrisināt?

AlphaGenome ir mākslīgā intelekta sistēma, kas, pēc DeepMind teiktā, var paredzēt, kā DNS mutācijas ietekmē gēnu regulāciju — kad gēni ieslēdzas, kur tas notiek un cik spēcīgi. Tā ir veidota, lai vienlaikus skenētu ļoti lielus DNS posmus, tostarp nekodējošos reģionus, kurus ir grūti interpretēt. Mērķis ir palīdzēt pētniekiem noteikt, kuras mutācijas, visticamāk, izraisīs slimības, lai laboratorijas testi varētu koncentrēties uz daudzsološākajiem pavedieniem.

Kā AlphaGenome varētu palīdzēt pētniekiem ātrāk atrast slimību ģenētiskos virzītājspēkus?

Daudzās ģenētikas darbplūsmās sašaurinājums rodas no milzīgu variantu sarakstu samazināšanas līdz dažiem, kas ticami maina gēnu aktivitāti. AlphaGenome sola samazināt šīs minēšanas, prognozējot, kā specifiskas mutācijas varētu mainīt regulāciju garās DNS sekvencēs. Ja šīs prognozes apstiprināsies, komandas varēs noteikt prioritāti eksperimentiem, kas saistīti ar variantiem, kuri, visticamāk, ir saistīti ar vēža risku vai sarežģītām iedzimtām slimībām, veltot mazāk laika strupceļiem.

Vai mākslīgā intelekta ieviešana tiešām izmaksās darbavietas Apvienotajā Karalistē, un kuras lomas ir visvairāk apdraudētas?

Apvienotās Karalistes tehnoloģiju sekretāre Liza Kendala sacīja, ka mākslīgā intelekta ieviešana izraisīs darbavietu zaudēšanu, un uzsvēra bažas par absolventu jaunpienācēju lomām. Viņa īpaši norādīja uz tādām jomām kā tiesību zinātne un finanses, kur karjeras sākumposma uzdevumi varētu būt labāk automatizējami. Vienlaikus valdība uzsver pielāgošanos, izmantojot plaša mēroga apmācības mākslīgā intelekta pamatprasmēs, atzīstot, ka pāreja var šķist nevienmērīga pat tad, ja parādās jaunas lomas.

Vai Apvienotās Karalistes izdevēji var atteikties no Google mākslīgā intelekta pārskatiem, nezaudējot meklēšanas pozīcijas?

Apvienotās Karalistes konkurences regulatori ir ierosinājuši izmaiņas, kas ļautu izdevējiem atteikties no sava satura izmantošanas Google mākslīgā intelekta pārskatos vai atsevišķu mākslīgā intelekta modeļu apmācībā, nesaņemot sodus standarta meklēšanas rangos. Mērķis ir no jauna līdzsvarot ietekmi, jo mākslīgā intelekta kopsavilkumi maina klikšķināšanas uzvedību. Google ir signalizējis, ka apsver iespēju ieviest vairāk kontroles mehānismu, vienlaikus brīdinot par sadrumstalotu meklēšanas pieredzi.

Kā mākslīgā intelekta aģents var nopludināt privātus datus, tikai noklikšķinot uz saites?

OpenAI aprakstīja uz URL balstītu datu eksfiltrācijas risku, kad uzbrucējs liek AI aģentam ielādēt saiti, kas nemanāmi iegulst sensitīvu informāciju vaicājuma virknē. Pat ja modelis nekad neatkārto slepeno informāciju savā izvadē, pats pieprasījums to var pārsūtīt. Bieži sastopama mazināšanas metode ir “apzinātas berzes” pievienošana, piemēram, brīdinājumi un lietotāja apstiprinājuma pieprasīšana, ja saite nav neatkarīgi pārbaudīta kā publiska.

Kas ir NIST kiberdrošības mākslīgā intelekta profila projekts un kā tas maina kiberdrošības pārvaldību?

NIST profila projekts (apspriests juridiskās analīzes ietvaros) definē mākslīgo intelektu (MI) gan kā kaut ko aizsargājamu, gan kā kaut ko izmantojamu kiberaizsardzībā. Tas grupē darbus tādās tēmās kā MI komponentu nodrošināšana, piegādes ķēdes risku novēršana un MI iespējotu aizsardzības mehānismu ieviešana, tostarp automatizētāku, aģentiem līdzīgu reaģēšanas darbplūsmu ieviešana. Lai gan pēc nosaukuma tie ir brīvprātīgi, šādi ietvari bieži vien kļūst par de facto gaidām, mudinot organizācijas oficiāli integrēt MI pārvaldībā un kontrolē.

Vakardienas mākslīgā intelekta ziņas: 2026. gada 27. janvāris

Atrodiet jaunāko mākslīgo intelektu oficiālajā mākslīgā intelekta palīgu veikalā

Par mums

Atpakaļ uz emuāru