Mākslīgā intelekta ziņas, 2026. gada 12. janvāris

Mākslīgā intelekta ziņu kopsavilkums: 2026. gada 12. janvāris

🍏 Apple un Google noslēdz līgumu ar Gemini par uzlaboto Siri, kas ir liels panākums Alphabet

Apple plāno izmantot Google Gemini modeļus uzlabotajam Siri, saskaņā ar daudzgadu sadarbību, kas būtībā kliedz par “mākslīgā intelekta bruņošanās sacensību, bet padariet to draudzīgu”. Tas arī nostāda Google modeļus Apple milzīgās ierīču bāzes priekšā, kurā ir… daudz kabatu.

Kas ir nedaudz pikanti: tas nebūt nenozīmē, ka Apple pilnībā koncentrējas uz vienu modeli — drīzāk Siri kļūst par maršrutēšanas slāni, un katrā uzdevumā uzvar labākais atbilžu sniedzējs. Teorētiski glīti, reālajā dzīvē sarežģīti.

💬 Meta atbrīvos Itāliju no konkurējošā tērzēšanas robota aizlieguma WhatsApp platformā

Meta izslēdz Itāliju no sava plāna bloķēt konkurējošus mākslīgā intelekta tērzēšanas robotus lietotnē WhatsApp — nevis tāpēc, ka pēkšņi būtu kļuvis mierīgi, bet gan tāpēc, ka regulatori vēlas rūpīgāk to izpētīt. Tātad "aizlieguma" ideja joprojām pastāv, tikai ar valsts mēroga izņēmumu.

Lielāka cīņa ir par platformas jaudu: ja konkurenti nevar pieslēgties WhatsApp, Meta AI iegūst tīrāku skrejceļu. Un, ja esat konkurents, tā ir visa sūdzība vienā teikumā.

🏛️ Valsts sekretāra paziņojums Pārstāvju palātā: 2026. gada 12. janvāris

Apvienotās Karalistes zinātnes un tehnoloģiju sekretārs uzrunāja Pārstāvju palātu, īpaši pievēršoties kaitējumam, kas saistīts ar mākslīgā intelekta ģenerētu saturu, īpaši bez piekrišanas veidotiem seksuāla rakstura dziļviltojumiem. Tonis nav “nākotnes risks” – tas ir “tas notiek, tas ir pretīgi un nelikumīgi”

Tas ir viens no tiem brīžiem, kad mākslīgā intelekta politika pārstāj būt debašu klubs un pārvēršas par izpildi, platformu atbildību un to, kas tiek vai netiek noņemts. Neērti, bet zināmā mērā nepieciešami.

🧑💻 Mākslīgais intelekts liek izstrādātājiem atteikties no Stack Overflow

Stack Overflow datplūsma un jautājumu apjoms turpina samazināties, un rakstā tiek apgalvots acīmredzamais: daudzi izstrādātāji tagad vispirms uzdod jautājumus tiesību zinātņu maģistram (LLM). Un, godīgi sakot, dažiem cilvēkiem apnika saņemt rājienus par to, ka viņi neformatē jautājumu kā juridisku pieteikumu.

Tā ir vairāk ieraduma maiņa nekā vienas platformas kļūme. Cilvēkiem joprojām ir vajadzīgas atbildes — viņi tās saņem tikai tērzēšanas logā, nevis pavedienā… līdz parādās halucināciju gremlins.

🤖 RoboChallenge visaugstāk novērtētais iemiesotais mākslīgā intelekta modelis kļūst par atvērtā koda modeli, izaicinot tīras datu vākšanas paradigmu

Spirit AI apgalvo, ka tā redzes-valodas-darbības modelis Spirit v1.5 pārspēja RoboChallenge etalonu, un viņi padara pamatmodeli, svarus un novērtēšanas kodu par atvērto pirmkodu. Patīk enerģija “šeit, reproducē to” – reta un klusi atsvaidzinoša.

Viņu arguments ir tāds, ka daudzveidīgi, uz mērķi orientēti reālās pasaules dati var pārspēt nevainojamas demonstrācijas, jo robotiem ir nepieciešama atgūšanās uzvedība un sarežģīti, nevainojami piemēri, nevis tikai perfekti braucieni. Tas ir kā apmācīt vadītāju tikai saulainās svētdienās… jūs to nožēlosiet, kad pirmo reizi līs lietus.

Bieži uzdotie jautājumi

Ko Gemini darījums par atjaunoto Siri patiesībā nozīmē iPhone lietotājiem?

Tas nozīmē, ka Siri varētu izmantot Google Gemini modeļus, lai apstrādātu vairāk pieprasījumu kā daļu no “uzlabotas” pieredzes. Ikdienas lietošanā tas, visticamāk, izpaudīsies kā spēcīgākas atbildes uz uzdevumiem, kas izmanto lielus valodu modeļus, nevis klasisko komandu un vadības palīga stilu. Lielākās izmaiņas slēpjas aizkulisēs: Siri darbojas vairāk kā orķestrācijas slānis, izvēloties, kuram modelim jāapstrādā katrs pieprasījums.

Vai Apple pilnībā iesaistīsies Google Gemini Siri izstrādē, vai arī tas var mainīt modeļus?

Aprakstītā iestatīšana nelasāma kā viena modeļa piesaiste. Siri ir pozicionēts kā maršrutēšanas slānis, kur “labākais atbilžu sniedzējs” var atšķirties atkarībā no uzdevuma, kas atstāj vietu vairākiem modeļiem vai vairākiem pakalpojumu sniedzējiem. Šī elastība var uzlabot kvalitāti, taču tā arī rada reālu darbības sarežģītību attiecībā uz konsekvenci, latentumu un lēmumu pieņemšanu, kuram modelim vajadzētu pieņemt sensitīvus vai augstas likmes vaicājumus.

Kāpēc Gemini darījums par atjaunoto Siri tiek uzskatīts par lielu Alphabet uzvaru?

Ja Gemini modeļi darbina Siri daļas, Google mākslīgais intelekts iegūst atpazīstamību, pateicoties Apple milzīgajai ierīču bāzei. Šāda izplatība ir svarīga, jo īpaši jomā, kur ieviešanu nosaka noklusējuma iestatījumi un ērtības. Pat ja Siri novirza starp modeļiem, tā kā tā ir noklusējuma opcija Apple ekosistēmā, Google saglabā centrālo pozīciju patērētāju mākslīgā intelekta sacensībās.

Kas notiek ar Meta un plānu bloķēt konkurējošus mākslīgā intelekta tērzēšanas robotus vietnē WhatsApp?

Tiek ziņots, ka Meta gatavo ierobežojumus konkurējošiem mākslīgā intelekta tērzēšanas robotiem WhatsApp platformā, pagaidām izslēdzot Itāliju no šī soļa. Norādītais iemesls ir regulatīvā kontrole — Itālija kļūst par valsts mēroga izņēmumu, kamēr regulatori rūpīgāk izvērtē situāciju. Plašāka spriedze ir par platformas varu: vai WhatsApp vajadzētu ļaut konkurentiem “pieslēgties” vai arī Meta AI iegūs preferenciālu piekļuvi.

Ko Apvienotās Karalistes valdība uzsvēra attiecībā uz mākslīgā intelekta radītu kaitējumu, piemēram, seksuāla rakstura dziļviltojumiem?

Paziņojumā tika uzsvērts kaitējums, kas saistīts ar mākslīgā intelekta ģenerētu saturu, īpaši uzsverot seksuāla rakstura dziļviltojumus bez piekrišanas. Šī problēma netika formulēta kā tāls, hipotētisks risks — tā tika uzskatīta par aktuālu, nopietnu problēmu ar juridiskām un tiesībaizsardzības sekām. Šāds formulējums parasti pievērš uzmanību satura noņemšanai, platformas atbildībai un tam, cik ātri tiek atklāts un noņemts kaitīgs materiāls.

Kāpēc izstrādātāji retāk izmanto Stack Overflow, un kāds ir kompromiss?

Rakstā apgalvots, ka vairāk izstrādātāju vispirms uzdod jautājumus tiesību zinātņu maģistram (LLM), tādējādi samazinot nepieciešamību uzdot jautājumus un gaidīt atbildes. Tas norāda arī uz kultūras faktoru: daži izstrādātāji ir noguruši no kritikas par formatējumu vai "nepareiziem" jautājumiem. Kompromiss ir uzticamība — uz tērzēšanu balstītas atbildes var būt ātras, taču halucinācijas un nepārbaudītas vadlīnijas var radīt smalkas kļūdas, ja vien rezultāti netiek apstiprināti.

Vakardienas mākslīgā intelekta ziņas: 2026. gada 11. janvāris

Atrodiet jaunāko mākslīgo intelektu oficiālajā mākslīgā intelekta palīgu veikalā

Par mums

Atpakaļ uz emuāru