Mākslīgā intelekta ziņas, 2026. gada 22. februāris

Mākslīgā intelekta ziņu kopsavilkums: 2026. gada 22. februāris

🏫 Dažās skolās tērzēšanas roboti iztaujā skolēnus par viņu darbu. Taču mākslīgā intelekta revolūcija rada bažas skolotājiem

Dažas Austrālijas skolas izmēģina asāku “parādi savu sniegumu” variantu — skolēni pabeidz uzdevumu, pēc tam mākslīgā intelekta tērzēšanas robots viņus aptaujā, lai pārliecinātos, ka viņi saprot iesniegto. Tā būtībā ir mutiska “viva”, bet mašīna jautā: “ko tu ar to domā?”, līdz skolēns sāc raustīties.

Lielākas bažas rada nevienmērīga ieviešana: nozares dokumentā brīdināts, ka tie, kas ātri ieviesīs tehnoloģijas, varētu strauji virzīties uz priekšu, kamēr citi atpaliks, radot divu ātrumu izglītības sistēmu. Skolotāji arī turpina pievērst uzmanību pazīstamajām — un joprojām nopietnajām — bažām: privātums, labsajūta un tas, kā apturēt “mākslīgā intelekta palīdzības” ieslīgšanu “mākslīgais intelekts to paveica”.

👮 Policija izmanto Palantir piegādātos mākslīgā intelekta rīkus, lai ziņotu par policistu pārkāpumiem

Londonas Metropolitēna policija izmanto Palantir piegādāto mākslīgo intelektu, lai analizētu iekšējos darbaspēka modeļus — slimības, prombūtni, virsstundas —, meklējot signālus, kas varētu būt saistīti ar profesionālo standartu jautājumiem. Tas tiek reklamēts kā laika ziņā ierobežots pilotprojekts, un, kas ir svarīgi, Metropolitēna policija norāda, ka faktiskos lēmumus joprojām pieņem cilvēki... taču viņi "joprojām" veic daudz darba.

Policijas federācija nav sajūsmā, nosaucot to par “automatizētu aizdomām” un brīdinot par necaurspīdīgiem rīkiem, kas stresu un darba slodzi nepareizi interpretē kā pārkāpumus. Tas ir viens no tiem brīžiem, kad tehnoloģija slaidā izklausās lieliski, bet tad, kad iztēlojies, kā tā jūtas uz zemes, tā kļūst asi dzēlīga.

🛡️ Apvienotās Karalistes privātuma uzraudzības iestāde kopīgā paziņojumā brīdina par mākslīgā intelekta ģenerētiem attēliem

Apvienotās Karalistes ICO pievienojās citiem regulatoriem kopīgā brīdinājumā par mākslīgā intelekta ģenerētiem attēliem, kuros attēlotas identificējamas personas bez to piekrišanas. Būtībā brīdinājums par "tas ir sintētisks" nav jāuztver kā maģisks attaisnojums. Vēstījums ir tāds, ka drošības pasākumi ir jāievieš jau laikus un jāiesaista regulatori, nevis jāizmanto klasiskā tehnoloģiskā pieeja, vispirms nosūtot preces un tikai pēc tam atvainojoties.

Viņi arī uzsver paaugstinātu risku bērniem, kas ir loģiski, jo, tiklīdz šī viela izplatās, tas ir kā mēģināt iesmērēt vizuļus atpakaļ burkā. Galvenais ir tas, ka privātumam un cieņai ir jāizdzīvo modes ciklā, vai vismaz tā šķiet.

🪖 ASV aizsardzības ministrs Hegsets izsauc Anthropic izpilddirektoru uz sarežģītām sarunām par Kloda izmantošanu militārām vajadzībām, ziņo Axios

Reuters ziņo, ka ASV aizsardzības ministrs gatavojas tikties ar Anthropic izpilddirektoru, lai risinātu, kā tas tiek raksturots kā konfrontējošāka saruna par Claude izmantošanu militāriem mērķiem. Pentagons, kā ziņots, vēlas, lai lielākie mākslīgā intelekta pakalpojumu sniedzēji padarītu modeļus pieejamus klasificētos tīklos ar mazāk ierobežojumiem, un Anthropic ir pretojies jebkādai drošības pasākumu atvieglošanai.

Zemteksts skan kā klasiska dilemma "rīkoties ātri, bet... ar iesaistītām raķetēm". Ja puses nevar vienoties par aizsargbarjerām, attiecības var saspīlēties vai pat pārtrūkt, tomēr "Anthropic" arī signalizē, ka sarunas ar valdību joprojām ir konstruktīvas, tāpēc situācija ir saspringta, taču (pagaidām) nav pilnīgas šķiršanās.

🧠 ChatGPT — laidiena piezīmes

OpenAI laidiena piezīmēs ir norādīts uz paplašinātu konteksta logu “Domāšanas” režīmam, kas nozīmē, ka modelim var sniegt vairāk teksta un saglabāt garākus pavedienus saskaņotus, neizmetot agrākas detaļas. Ja kādreiz esat redzējis, kā modelis “aizmirst” kaut ko, ko burtiski tikko pateicāt (sāpes), tad šis ir tieši tas.

Tas ir ļoti nūģīgs uzlabojums, kas nemanāmi maina praktisko: garākus dokumentus, sarežģītākus projektus, plašākas pētniecības sesijas. Ne glauns, bet tā ir tāda santehnikas maiņa, kas pēkšņi liek visai mājai justies lielākai.

Bieži uzdotie jautājumi

Ko nozīmē, ja skolas izmanto tērzēšanas robotus, lai “pratinātu” skolēnus par uzdevumiem?

Dažās Austrālijas skolās skolēni izpilda uzdevumu un pēc tam piedalās sarunā ar mākslīgā intelekta tērzēšanas robotu, kas pārbauda viņu spriešanas spējas. Tas darbojas kā mutiska diskusija, mudinot skolēnus paskaidrot, ko viņi uzrakstīja un kāpēc. Mērķis ir pārbaudīt izpratni, ne tikai rezultātu. Tas var arī atklāt nepilnības, ja skolēns nevar aizstāvēt galvenos apgalvojumus.

Kā mākslīgā intelekta tērzēšanas roboti skolās varētu radīt “divu ātrumu” izglītības sistēmu?

Nozares dokumentā brīdināts, ka skolas, kas ātri ievieš tehnoloģijas, varētu gūt panākumus, savukārt lēnāk attīstošās skolas atpaliktu. Ja dažas skolas izmantos mākslīgā intelekta rīkus, lai novērtētu izpratni, atbalstītu mācīšanos vai novērstu ļaunprātīgu izmantošanu, tās varētu ātrāk uzlabot rezultātus. Citām var trūkt budžeta, personāla kapacitātes vai politikas skaidrības, lai ieviestu salīdzināmas sistēmas. Šī nevienmērīgā ieviešana var palielināt esošās resursu un sasniegumu atšķirības.

Kā skolotāji cenšas nepieļaut, ka “mākslīgā intelekta palīdzība” pārvēršas par “mākslīgais intelekts to paveica”?

Izplatīta pieeja ir novirzīt vērtēšanu uz procesu un skaidrošanu, ne tikai uz gatavo produktu. Čatbota stila jautājumi, melnraksti, pārdomas vai mutiskas pārbaudes var apgrūtināt tādu darbu iesniegšanu, kurus jūs nesaprotat. Skolotāji var arī noteikt stingrākas robežas pieņemamai palīdzībai, piemēram, ideju ģenerēšana pretstatā pilnīgai pārrakstīšanai. Uzsvars joprojām tiek likts uz izpratnes demonstrēšanu, nevis uz katra rīka kontroli.

Kādas privātuma un labsajūtas problēmas rodas, ja klasēs tiek izmantots mākslīgais intelekts?

Skolotāji turpina paust bažas par to, kādi skolēnu dati tiek vākti, kur tie tiek glabāti un kas tiem var piekļūt. Pastāv arī bažas par skolēnu labsajūtu, ja viņi jūtas pastāvīgi uzraudzīti vai spiesti ar mašīnvadītu jautājumu palīdzību. Bērni ir īpaša riska grupa, jo sensitīva informācija var izplatīties vai saglabāties sistēmās negaidītos veidos. Daudzas skolas cenšas ieviest drošības pasākumus jau laikus, nevis mēģināt tos pielāgot vēlāk.

Kā Metropolitēna policija izmanto Palantir piegādāto mākslīgo intelektu, lai brīdinātu par iespējamu amatpersonu pārkāpumu?

Londonas Metropolitēna policija izmanto Palantir piegādāto mākslīgo intelektu, lai analizētu darbaspēka modeļus, piemēram, slimības, prombūtni un virsstundas. Mērķis ir pamanīt signālus, kas varētu būt saistīti ar profesionālo standartu jautājumiem. Tas tiek raksturots kā laika ziņā ierobežots pilotprojekts, un Metropolitēna policija norāda, ka lēmumus joprojām pieņem cilvēki. Kritiķi apgalvo, ka rīks var šķist kā "automatizētas aizdomas", ja tas stresu uztver kā pārkāpumu.

Kāpēc policijas arodbiedrības uztraucas par mākslīgā intelekta uzraudzības rīku radītajām “automatizētajām aizdomām”?

Policijas federācija baidās, ka necaurspīdīgi modeļi var secināt par pārkāpumiem, pamatojoties uz modeļiem, kuriem ir labvēlīgi skaidrojumi. Darba slodzes pieaugums, veselības problēmas un stress var mainīt apmeklētību vai virsstundas, nenorādot uz pārkāpumiem. Ja rīka loģika nav caurspīdīga, policistiem ir grūtāk apstrīdēt brīdinājumus vai vadītājiem kalibrēt taisnīgus sliekšņus. Pat ar cilvēku lēmumiem automatizēti signāli joprojām var ietekmēt rezultātus.

Par ko Apvienotās Karalistes ICO brīdina attiecībā uz mākslīgā intelekta ģenerētiem identificējamu cilvēku attēliem?

Apvienotās Karalistes privātuma uzraudzības iestāde pievienojās citiem regulatoriem, brīdinot, ka “sintētisks” nenozīmē bez sekām. Ja mākslīgā intelekta ģenerēts attēls attēlo identificējamu personu bez tās piekrišanas, privātuma un cieņas riski joprojām pastāv. Regulatori uzsver, ka aizsardzības pasākumi ir jāievieš agrīnā stadijā un jāiesaistās uzraudzībā, nevis vispirms jānosūta saturs. Viņi arī brīdina par paaugstinātu risku bērniem, kur kaitējums var ātri izplatīties, tiklīdz saturs izplatās.

Kas slēpjas aiz ziņotā Pentagona spiediena uz Anthropic par Kloda izmantošanu militārām vajadzībām?

Reuters ziņo, ka ASV aizsardzības ministrs gatavojas tikties ar Anthropic izpilddirektoru, lai risinātu stingrākas sarunas par Claude izmantošanu militāriem mērķiem. Pentagons, kā ziņots, vēlas, lai lielākie mākslīgā intelekta pakalpojumu sniedzēji padarītu modeļus pieejamus klasificētos tīklos ar mazāk ierobežojumiem. Anthropic ir pretojusies vājākiem drošības pasākumiem, norādot uz konfliktu par drošības barjerām. Attiecības šķiet saspringtas, lai gan abas puses signalizē, ka sarunas joprojām ir konstruktīvas.

Kas mainījās ChatGPT laidiena piezīmēs par “Domāšanas” režīma konteksta garumu?

OpenAI laidiena piezīmēs ir norādīts uz paplašinātu konteksta logu “Domāšanas” režīmam, kas ļauj vienā pavedienā ievietot vairāk teksta. Praksē tas var palīdzēt ar gariem dokumentiem, sarežģītiem projektiem un daudzpakāpju pētījumiem, kuros ir svarīgas agrākas detaļas. Tas ir drīzāk santehnikas stila jauninājums, nevis uzkrītoša funkcija. Galvenā priekšrocība ir mazāk zaudēto detaļu ilgāku sesiju laikā.

Vakardienas mākslīgā intelekta ziņas: 2026. gada 21. februāris

Atrodiet jaunāko mākslīgo intelektu oficiālajā mākslīgā intelekta palīgu veikalā

Par mums

Atpakaļ uz emuāru