🦞 OpenClaw dibinātājs Šteinbergers pievienojas OpenAI, atvērtā pirmkoda robots kļūst par pamatu ↗
Pīters Šteinbergers dodas uz OpenAI, lai veicinātu “personīgo aģentu” attīstību, savukārt pats OpenClaw tiek iekļauts fondā, lai tas paliktu atvērtā koda (un atbalstīts). Šis sadalījums ir… diezgan gudrs – nolīgt izstrādātāju, saglabāt projektu publisku.
OpenClaw piedāvājums ir atsvaidzinoši praktisks: e-pasta triāža, apdrošināšanas dokumenti, lidojumu reģistrēšanās, nogurdinošie administrēšanas uzdevumi. Tas ir arī ievērojami popularizēts GitHub platformā, un šī popularitāte ir radījusi bažas par drošību, īpaši, ja cilvēki to izmanto neuzmanīgi.
🪖 Pentagons ir “apnicis” ar antropisko pretestību attiecībā uz Claude AI modeļa izmantošanu militārajā jomā, un varētu pārtraukt saites, teikts ziņojumā ↗
Galvenā cīņa: Pentagons vēlas plašu, “visiem likumīgiem mērķiem” pieejamu piekļuvi, un Anthropic joprojām cenšas ievērot stingrus ierobežojumus attiecībā uz pilnībā autonomiem ieročiem un masveida novērošanu. Šāda veida domstarpības izklausās filozofiskas, līdz kāds saka: “Mēs varētu jūs aizstāt.”
Viena nenovērtēta problēma — amatpersonas nevēlas, lai modelis pēkšņi bloķētu darbplūsmas procesa vidū, un viņi nevēlas mūžīgi risināt sarunas par perifērām situācijām (lai gan taisnība… bet arī ak vai). Šeit pastāv reāla spriedze par to, "kurš tur atslēgas", un tā nav smalka.
🧠 Startup veido modeli cilvēku uzvedības prognozēšanai ↗
Simile piesaistīja 100 miljonu dolāru lielu finansējumu, lai izveidotu "ierobežotas mācīšanās" modeli, kura mērķis ir paredzēt cilvēku rīcību, tostarp, ļoti specifiski, paredzēt iespējamos jautājumus, piemēram, peļņas paziņošanas balsojumos. Šaurs mērķis, lielas ambīcijas, nedaudz baisa kombinācija.
Šī pieeja balstās uz intervijām ar reāliem cilvēkiem un uzvedības pētījumu datiem, pēc tam veicot simulācijas ar mākslīgā intelekta aģentiem, kuru mērķis ir atspoguļot reālas vēlmes. Tas ir kā laika apstākļu modeļa izveide cilvēku lēmumiem… kas izklausās neiespējami, līdz tas tā vairs nav.
🧑⚖️ Scoop: Baltais nams spiež Jūtas likumdevēju noraidīt mākslīgā intelekta pārredzamības likumprojektu ↗
Jūtas štata līmeņa mākslīgā intelekta pārredzamības veicināšanas iniciatīvas saņem tiešu kritiku no Baltā nama puses, un amatpersonas mudina likumprojekta autorus to nevirzīt uz priekšu. Likumprojekta pamatā ir pārredzamība un bērnu drošība, un ar to ir grūti strīdēties, ja runa ir tikai par optisko pieeju.
Bet lielākais strīds ir par jurisdikciju: kurš varēs noteikt noteikumus, štati vai federālā valdība. Un jā, tas ir nikns niknums – it kā divi cilvēki satvertu vienu un to pašu stūri un uzstāj, ka viņi ir mierīgākie.
🎬 Pēc Disney draudiem ByteDance apņemas novērst neatļautu IP izmantošanu mākslīgā intelekta video rīkā ↗
Disney nosūtīja paziņojumu par ByteDance mākslīgā intelekta video ģeneratora darbības pārtraukšanu, un ByteDance apgalvo, ka pastiprina drošības pasākumus, lai novērstu neatļautu intelektuālā īpašuma un līdzību izmantošanu. Sūdzība it kā ir par to, ka rīks var attēlot pazīstamus franšīzes tēlus tā, it kā tie būtu tikai… publiski pieejamas uzlīmes.
Tā ir sadursme, ko visi paredzēja: vīrusu mākslīgā intelekta video rīki attīstās ātri, studijas virzās uz tiesvedību, un "mēs pievienosim drošības pasākumus" kļūst par noklusējuma atvainošanās valodu. Savā ziņā tehnoloģija izskatās pēc maģijas, bet juridiskā puse – pēc gravitācijas.
Bieži uzdotie jautājumi
Ko nozīmē tas, ka OpenClaw dibinātājs pievienojās OpenAI, kamēr OpenClaw pārgāja uz fondu?
Tas norāda uz šķelšanos starp personu, kas veido "personīgos aģentus", un projektu, kas joprojām tiek pārvaldīts publiski. Šteinbergera pievienošanās OpenAI liek domāt, ka viņš koncentrēsies uz aģentu stila produktu attīstīšanu. OpenClaw ievietošana fondā ir paredzēta, lai saglabātu tā atvērtā koda programmatūru un ilgtspējīgu atbalstu. Praksē šī soļa mērķis ir saglabāt kopienas uzticību, savukārt veidotājs dodas tur, kur ir resursi.
Kāpēc OpenClaw stila mākslīgā intelekta aģenti koncentrējas uz tādiem uzdevumiem kā e-pasts un dokumentu kārtošana?
Tā kā “dzīves administratora” darbs ir atkārtots, balstīts uz noteikumiem un laikietilpīgs, tas ir praktisks automatizācijas mērķis. Šeit minētie piemēri — e-pasta atlase, apdrošināšanas dokumenti un lidojumu reģistrēšanās — ir šauri uzdevumi ar skaidriem veiksmes kritērijiem. Šāda koncentrēšanās var likt aģentiem justies vērtīgiem ātrāk nekā atvērtākiem asistentiem. Tas arī uzsver, kāpēc rūpīga piekļuves kontrole ir svarīga, kad aģenti pieskaras personīgajiem kontiem.
Kā var izvietot atvērtā koda mākslīgā intelekta aģentu, piemēram, OpenClaw, neradot drošības problēmas?
Izturieties pret to kā pret programmatūru, kas var redzēt sensitīvus datus, nevis kā pret rotaļlietu skriptu. Izplatīta pieeja ir bloķēt akreditācijas datus, ierobežot atļaujas līdz minimālajam nepieciešamajam līmenim un uzturēt žurnālus un auditācijas ierakstus. Palaidiet to ierobežotā vidē un atdaliet to no augstas vērtības sistēmām. Daudzas drošības bažas rodas neuzmanīgas izvietošanas dēļ, īpaši, ja cilvēki atklāj galapunktus vai žetonus bez stingriem drošības pasākumiem.
Kāpēc Pentagons nav apmierināts ar Antropic ierobežojumiem attiecībā uz Klodu militārai lietošanai?
Strīds galvenokārt ir par darbības jomu un kontroli: Pentagons vēlas plašu piekļuvi “visiem likumīgiem mērķiem”, savukārt Antropic tiek raksturots kā tāds, kas ievēro stingrus ierobežojumus attiecībā uz pilnībā autonomiem ieročiem un masveida novērošanu. Amatpersonas arī nevēlas, lai modeļi bloķētu darbplūsmas vidū vai pieprasītu nebeidzamas sarunas par konkrētiem gadījumiem. Šī spriedze nav tik abstrakta, kā izklausās, – runa ir par to, kurš izlemj, ko modelis var darīt reālās operācijās.
Kā jaunuzņēmumi mēģina paredzēt cilvēku uzvedību ar mākslīgā intelekta palīdzību, un kāpēc tas šķiet pretrunīgi?
Šeit minētais piemērs, Simile, īsteno "ierobežotas mācīšanās" modeli, kura mērķis ir prognozēt cilvēku iespējamo rīcību, tostarp paredzēt iespējamos jautājumus tādos kontekstos kā peļņas paziņošana. Aprakstītā pieeja apvieno intervijas ar uzvedības pētījumu datiem un simulācijām, izmantojot mākslīgā intelekta aģentus, kuru mērķis ir atspoguļot reālās vēlmes. Tas šķiet baisi, jo mākslīgais intelekts pārceļas no reaģēšanas uz cilvēkiem uz prognozēšanu. Izaicinājums ir ierobežot apgalvojumus un izvairīties no pārmērīgas pārliecības.
Kas notiek, ja mākslīgā intelekta video rīki ģenerē ar autortiesībām aizsargātus tēlus, piemēram, ByteDance un Disney sadursmē?
Ziņotā shēma ir pazīstama: studija izdod rīkojumu par darbības pārtraukšanu, un platforma reaģē, pastiprinot drošības pasākumus, lai novērstu neatļautu intelektuālā īpašuma vai līdzību izmantošanu. Daudzos rīkos drošības pasākumi nozīmē stingrākus satura filtrus, uzlabotu atpazīstamu rakstzīmju noteikšanu un skaidrāku lietotāju politikas ieviešanu. Pamatā esošais konflikts ir ātrums pret atbildību — vīrusu ģenerēšana notiek ātri, un tiesību ievērošanas nodrošināšana darbojas kā gravitācija. Sagaidāms, ka šādas sadursmes pieaugs, video ģeneratoriem izplatoties.