⚖️ Anthropic iesūdz tiesā Pentagonu, lai bloķētu iekļaušanu mākslīgā intelekta lietošanas ierobežojumu melnajā sarakstā ↗
Uzņēmums Anthropic ir iesūdzējis tiesā savu strīdu ar Pentagonu pēc tam, kad tas tika atzīts par piegādes ķēdes risku. Uzņēmums apgalvo, ka šis solis bija nelikumīga atriebība par atteikšanos atvieglot barjeras attiecībā uz autonomajiem ieročiem un vietējo novērošanu, kas šo strīdu padara par vienu no pašreiz visnetīrākajiem mākslīgā intelekta politikas strīda punktiem. ( Reuters )
Valdība vēlas elastību attiecībā uz "jebkuru likumīgu izmantošanu", savukārt Anthropic apgalvo, ka privātajām laboratorijām joprojām vajadzētu būt iespējai noteikt stingras drošības robežas. Šis ir kļuvis par vienu no skaidrākajiem pārbaudījumiem tam, vai mākslīgā intelekta uzņēmums var pateikt "nē" militāriem noteikumiem, netiekot par to nosodīts. ( Reuters )
🧑💻 OpenAI un Google darbinieki atbalsta Anthropic prasību pret Pentagonu ↗
Šī tiesas prāva ātri vien guva atbalstu arī konkurējošo laboratoriju iekšienē. Gandrīz 40 OpenAI un Google darbinieki atbalstīja Anthropic amicus curiae vēstulē, apgalvojot, ka atriebība uzņēmumiem par mākslīgā intelekta drošības sarkanajām robežām ir pretrunā ar sabiedrības interesēm. ( The Verge )
Tātad, jā, konkurenti pēkšņi ir nonākuši vienā pusē — vismaz šajā jautājumā. Īsajā apskatā uzmanība tiek pievērsta masveida novērošanai un neuzticamiem autonomajiem ieročiem, kas visu šo lietu padara mazāk līdzīgu standarta Silīcija ielejas snaiperu uzbrukumiem un vairāk kā īstu nozares līniju smiltīs... vai varbūt dubļos. ( The Verge )
🛡️ OpenAI iegādājas Promptfoo, lai nodrošinātu savu mākslīgā intelekta aģentu drošību ↗
OpenAI paziņoja, ka iegādājas Promptfoo, jaunuzņēmumu, kas koncentrējas uz lielu valodu modeļu aizsardzību pret pretinieku uzbrukumiem. Plāns paredz integrēt tā tehnoloģijas OpenAI Frontier, uzņēmuma platformā mākslīgā intelekta aģentiem. ( TechCrunch )
Tas ir zīmīgs solis. Ikviens vēlas, lai aģentūru mākslīgais intelekts paveiktu vairāk, ātrāk un visur, taču drošības puse ir atpalikusi, vai nu nedaudz, vai ļoti. Šis darījums liecina, ka OpenAI uzskata, ka nākamā lielā sacensība nav tikai par gudrākiem aģentiem, bet arī par drošākiem. ( TechCrunch )
🧪 Anthropic laiž klajā koda pārskatīšanas rīku, lai pārbaudītu mākslīgā intelekta ģenerēta koda pieplūdumu ↗
Anthropic ieviesa koda pārskatīšanas rīku Claude Code ietvaros, kas paredzēts komandām, kuras slīkst mākslīgā intelekta kodēšanas rīku izveidotos pieprasījumos. Tas paralēli izmanto vairākus aģentus, lai skenētu kodu, atzīmētu loģikas problēmas, novērtētu to nopietnību un atstātu komentārus tieši GitHub. ( TechCrunch )
Ideja ir pietiekami vienkārša — mākslīgais intelekts ģenerē kodu ātrāk, nekā cilvēki to spēj saprātīgi pārskatīt, tāpēc tagad mākslīgajam intelektam tas ir jāpārskata. Nedaudz līdzīgs tam, ka čūska ēd savu asti, tomēr praktisks risinājums. Anthropic apgalvo, ka tas ir paredzēts uzņēmumu lietotājiem, kuri jau redz milzīgu koda izvadi no Claude Code. ( TechCrunch )
💰 Nvidia atbalstītā Nscale vērtība jaunā finansējuma kārtā ir 14,6 miljardi ASV dolāru ↗
Apvienotās Karalistes mākslīgā intelekta infrastruktūras uzņēmums Nscale C sērijas finansējuma kārtā piesaistīja 2 miljardus dolāru, iegūstot 14,6 miljardu dolāru novērtējumu. Atbalstītāju vidū bija Aker, 8090 Industries, Nvidia, Citadel, Dell un Jane Street, kas ir diezgan spēcīgs uzticības apliecinājums. ( Reuters )
Šis ir svarīgs, jo tā nav kārtējā modeļa palaišana vai tērzēšanas robota pielāgošana. Tā ir uzplaukuma “cirkņa un lāpstas” puse – skaitļošana, infrastruktūra, jauda, visa smagā tehnika aiz priekškara. Varbūt ne glauni, bet tieši tur tagad tiek ieguldīta liela daļa naudas. ( Reuters )
🧠 Jana Lekuna AMI Labs piesaista 1,03 miljardus dolāru pasaules modeļu izveidei ↗
Jana Lekuna jaunais uzņēmums AMI Labs piesaistīja 1,03 miljardus ASV dolāru ar 3,5 miljardu ASV dolāru novērtējumu pirms finansējuma piesaistes. Uzņēmums dzenas pakaļ "pasaules modeļiem" — mākslīgā intelekta sistēmām, kas paredzētas mācīšanās no pašas realitātes, nevis galvenokārt no valodas. ( TechCrunch )
Tā ir tieša filozofiska novirze uz pašreizējo uz tiesību zinātnēm balstīto konsensu, turklāt ievērojami skarba. Lekuns jau gadiem ilgi apgalvo, ka mūsdienu valodu modeļi mūs neaizvedīs līdz cilvēka līmeņa intelektam, tāpēc šī paaugstināšana pārvērš šo argumentu par ļoti dārgu eksperimentu. ( TechCrunch )
🇨🇳 Ķīnas tehnoloģiju centri reklamē OpenClaw mākslīgā intelekta aģentu, neskatoties uz drošības brīdinājumiem ↗
Vairākas Ķīnas vietējās pašvaldības atbalsta OpenClaw, mākslīgā intelekta aģentu, kas strauji izplatās, neraugoties uz drošības bažām, kas saistītas ar tā piekļuvi personas datiem. Tātad oficiālais noskaņojums, šķiet, ir: jā, pastāv riski — un jā, jebkurā gadījumā to ieviesīsim. ( Reuters )
Šī šķelšanās ir stāsts. Vietējie centri vēlas gūt ekonomisko ieguvumu un ekosistēmas impulsu, savukārt regulatori brīdina par datu noplūdi. Tas jau ir pazīstams mākslīgā intelekta modelis — vispirms sprints, vēlāk sakārto barjeras, vai vismaz tā šķiet. ( Reuters )
Bieži uzdotie jautājumi
Kāpēc Anthropic iesūdz tiesā Pentagonu par mākslīgā intelekta lietošanas ierobežojumiem?
Uzņēmums “Anthropic” apgalvo, ka Pentagons to nosauca par piegādes ķēdes risku pēc tam, kad uzņēmums atteicās no plašākiem nosacījumiem, kas varētu attiekties uz autonomajiem ieročiem un vietējo novērošanu. Tas padara tiesas prāvu par kaut ko vairāk nekā tikai pārdevēja statusu. Tiek pārbaudīts, vai mākslīgā intelekta laboratorija var ievērot stingrus drošības ierobežojumus un joprojām konkurēt par valdības darbu, netiekot sodītai.
Kāpēc OpenAI un Google darbinieki šajā mākslīgā intelekta drošības strīdā atbalsta Anthropic?
Amicus referāts liecina, ka daudzi konkurējošo laboratoriju darbinieki to uzskata par precedentu radošu mākslīgā intelekta drošības problēmu, nevis tikai par cīņu starp vienu uzņēmumu un vienu aģentūru. Viņus uztrauc tas, ka pārdevēja sodīšana par sarkano līniju ievērošanu varētu radīt spiedienu uz plašāku tirgu vājināt drošības pasākumus. Praksē tas varētu ietekmēt to, kā tiks apspriesti turpmākie aizsardzības un publiskā sektora mākslīgā intelekta līgumi.
Ko Antropiskā Pentagona lieta varētu mainīt mākslīgā intelekta politikā un aizsardzības līgumos?
Ja Anthropic uzvarēs, mākslīgā intelekta uzņēmumiem varētu būt spēcīgāka pozīcija, lai definētu nepieņemamu lietojumu pat tad, ja tie pārdod sensitīvās valdības vidēs. Ja uzņēmums zaudēs, aģentūras varētu iegūt ietekmi, lai pieprasītu no piegādātājiem plašākus "likumīgas lietošanas" nosacījumus. Jebkurā gadījumā šis strīds, visticamāk, ietekmēs iepirkumu formulējumu, riska pārskatus un to, kā drošības barjeras tiek ietvertas aizsardzības līgumos.
Kāpēc OpenAI iegādājās Promptfoo mākslīgā intelekta aģentiem?
Promptfoo ir pazīstams ar lielu valodu modeļu testēšanu pret pretinieku uzvednēm un citiem drošības trūkumiem. Šāda veida rīku iekļaušana OpenAI uzņēmumu aģentu platformā liecina, ka uzņēmums drošāku izvietošanu uzskata par konkurences priekšrocību, nevis papildu uzdevumu. Tā kā AI aģenti uzņemas arvien lielāku darbu, noturības un ļaunprātīgas izmantošanas testēšanu kļūst daudz grūtāk ignorēt.
Kā komandas var drošāk tikt galā ar mākslīgā intelekta ģenerēta koda plūsmu?
Jaunā Anthropic koda pārskatīšanas funkcija Claude Code ietvaros ir paredzēta komandām, kuras ir pārslogotas ar mākslīgā intelekta kodēšanas rīku ģenerētiem pieprasījumiem. Tā paralēli izmanto vairākus aģentus, lai noteiktu loģikas problēmas, novērtētu to nopietnību un atstātu komentārus GitHub. Parasti šādi rīki palīdz šķirot apjomu, taču cilvēku veiktiem pārskatītājiem joprojām ir nozīme arhitektūras, konteksta un galīgās apstiprināšanas ziņā.
Kāpēc mākslīgā intelekta infrastruktūra šobrīd saņem tik lielas investīcijas?
Nscale jaunākais finansējuma raunds uzsver, ka mākslīgā intelekta nozare joprojām iegulda milzīgu kapitālu skaitļošanas tehnoloģijās, infrastruktūrā un jaudās. Šie tēriņi varbūt ir mazāk redzami nekā iespaidīga modeļa laišana klajā, taču tie ir pamatā visam pārējam. Kad pieprasījums pēc apmācības un ieviešanas turpina pieaugt, uzņēmumi, kas pārdod cirtņus un lāpstas, bieži vien kļūst par vieniem no lielākajiem ieguvējiem.
Kas ir pasaules modeļi, un kāpēc Jans Lekuns uz tiem liek likmes?
Pasaules modeļi ir mākslīgā intelekta sistēmas, kas paredzētas, lai mācītos no pasaules uzvedības, nevis galvenokārt paļautos uz valodas datiem. Tas ir svarīgi, jo Jans Lekuns jau sen ir apgalvojis, ka valodu modeļi paši par sevi, visticamāk, nesasniegs cilvēka līmeņa intelektu. AMI Labs pārvērš šo viedokli par nozīmīgu komerciālu likmi citā ceļā progresīviem mākslīgā intelekta pētījumiem.
Kāpēc Ķīnas tehnoloģiju centri atbalsta OpenClaw, neraugoties uz drošības brīdinājumiem?
OpenClaw stāsts parāda pazīstamu šķelšanos strauji mainīgajos tehnoloģiju tirgos: vietējās pašvaldības vēlas izaugsmi, subsīdijas un ekosistēmas impulsu, savukārt regulatori uztraucas par datu izpaušanu un drošību. Aģenta atbalstīšana, neskatoties uz brīdinājumiem, liecina, ka dažviet dominē ekonomiskie stimuli. Novērotājiem tas ir vēl viens atgādinājums, ka ieviešana bieži vien notiek ātrāk nekā uzraudzība.