🤖 OpenAI aparatūras vadītājs atkāpjas pēc vienošanās ar Pentagonu ↗
OpenAI aparatūras un robotikas vadītāja Keitlina Kalinovska atkāpās no amata pēc uzņēmuma darījuma ar Pentagonu, sakot, ka šis solis netika pietiekami iekšēji apspriests, pirms modeļi tika apstiprināti klasificētiem aizsardzības tīkliem. Viņas galvenās bažas bija diezgan tiešas - cilvēku uzraudzība, novērošanas robežas un risks, ka letālā autonomija attīstīsies pārāk ātri. ( Reuters )
OpenAI apgalvo, ka vienošanās ietver papildu drošības pasākumus un joprojām aizliedz iekšzemes novērošanu un autonomo ieroču izmantošanu. Tomēr atkāpšanās no līguma visu lietu uztver nevis kā gludu politikas atjauninājumu, bet gan kā ugunsdrošas durvis, kas aizcirtās sanāksmes vidū. ( Reuters )
🏗️ Bloomberg News ziņo, ka Oracle un OpenAI atsakās no Teksasas datu centra paplašināšanas plāna ↗
Ziņots, ka Oracle un OpenAI ir atcēluši plānus paplašināt savu lielo Abilīnas, Teksasas štata, mākslīgā intelekta datu centru pēc tam, kad ieilga finansēšanas sarunas un mainījās OpenAI skaitļošanas vajadzības. Šī vieta bija daļa no plašāka Stargate infrastruktūras projekta, tāpēc šī nebūt nav mazsvarīga problēma. ( Reuters )
Esošā universitātes pilsētiņa joprojām darbojas, un uzņēmumi apgalvo, ka plašāka vairāku gigavatu apbūve turpinās citur. Vienlaikus pamesta paplašināšanās tagad varētu pavērt iespēju uzņēmumam Meta, kas, kā ziņots, ir apspriedusi vietas nomu. Mākslīgā intelekta infrastruktūra turpina kustēties kā slapjš cements — smaga, dārga un nekad īsti nenostabilizējusies. ( Reuters )
⚖️ Pentagons klasificē Anthropic kā piegādes ķēdes risku ↗
Pentagons oficiāli atzina Anthropic par piegādes ķēdes risku, ierobežojot Claude izmantošanu Aizsardzības ministrijas līgumos pēc tam, kad uzņēmums atteicās atvieglot drošības pasākumus pret autonomiem ieročiem un masveida novērošanu. Tas ir visa centrālais jautājums – iepirkumu cīņa, kas pārauga daudz lielākā vērtību cīņā. ( Reuters )
Uzņēmums “Anthropic” apgalvo, ka šis solis nav juridiski pamatots, un plāno to apstrīdēt tiesā. Šī atzīšana ir neparasti barga ASV mākslīgā intelekta laboratorijai, un tā nonāk plašākas domstarpības epicentrā par to, vai pierobežas modeļa uzņēmumiem vajadzētu iekļaut stingrākus noteikumus aizsardzības līgumos vai uzticēties spēkā esošajiem tiesību aktiem... ko ne visi ir gatavi darīt. ( Reuters )
💬 Meta ļaus mākslīgā intelekta konkurentiem izmantot WhatsApp, lai novērstu ES rīcību ↗
Meta apgalvo, ka pēc ES pretmonopola regulatoru spiediena uz gadu ļaus konkurējošiem mākslīgā intelekta tērzēšanas robotiem lietot WhatsApp Eiropā, izmantojot biznesa API. Konkurenti bija sūdzējušies, ka Meta faktiski tos bloķē, vienlaikus dodot priekšroku savam asistentam, kas ir asa detaļa, ņemot vērā, cik centralizēta izplatīšana ir kļuvusi par mākslīgā intelekta jomu. ( Reuters )
Problēma ir tā, ka piekļuve ir saistīta ar maksu, un kritiķi apgalvo, ka tas joprojām atstāj mazākus konkurentus neizdevīgā stāvoklī. Regulatori lemj, vai šī piekāpšanās ir pietiekama, tāpēc tas vairāk atgādina papīros ietītu pauzes pogu, nevis miera līgumu. ( Reuters )
📜 xAI zaudē mēģinājumu apturēt Kalifornijas mākslīgā intelekta datu izpaušanas likumu ↗
xAI zaudēja mēģinājumu bloķēt Kalifornijas likumu, kas pieprasa mākslīgā intelekta uzņēmumiem atklāt vairāk par datiem, kas tiek izmantoti to modeļu apmācībā. Tiesas atteikums apturēt likuma darbību nozīmē, ka xAI tagad saskaras ar tādu pašu pārredzamības spiedienu, no kura citi modeļu veidotāji ir mēģinājuši, dažkārt neveikli, izvairīties. ( Reuters )
Tas ir svarīgi, jo cīņas par apmācības datiem vairs nav tikai akadēmiskas vai autortiesībām saistītas – tās kļūst par atbilstības jautājumu reāllaikā. xAI, kas jau tā saskaras ar atkārtotām drošības pretrunām saistībā ar Groku, tas pievieno vēl vienu regulatora formas svaru mugursomai. ( Reuters )
Bieži uzdotie jautājumi
Kāpēc OpenAI aparatūras un robotikas vadītājs atkāpās no amata pēc Pentagona darījuma?
Keitlina Kalinovska atkāpās no amata, jo uzskatīja, ka lēmums par klasificētu aizsardzības tīklu modeļu atļaušanu netika pietiekami iekšēji apspriests. Viņas bažas galvenokārt bija saistītas ar cilvēku uzraudzību, novērošanas ierobežojumiem un pārāk straujas letāla autonomijas attīstības risku. OpenAI paziņoja, ka vienošanās joprojām aizliedz iekšzemes novērošanu un autonomo ieroču izmantošanu, taču atkāpšanās liecina, ka iekšējās debates nav pilnībā atrisinātas.
Ko īsti nozīmē tas, ka Pentagons antropogēno aktivitāti nosauc par piegādes ķēdes risku?
Tas nozīmē, ka Claude izmantošana Aizsardzības departamenta līgumos tiktu liegta, kas ir būtisks iepirkumu šķērslis. Saskaņā ar rakstu strīda centrā ir Anthropic atteikšanās vājināt ar autonomajiem ieročiem un masveida novērošanu saistītos drošības pasākumus. Anthropic apgalvo, ka apzīmējums nav juridiski pamatots, un plāno to apstrīdēt, tāpēc tas varētu kļūt gan par tiesas prāvu, gan politikas pārbaudījumu.
Kāpēc atceltā datu centra paplašināšana Teksasā ir svarīga mākslīgā intelekta nozares ziņās?
Abilīnas paplašināšanas pārtraukšana ir svarīga, jo tā bija daļa no plašākas Stargate infrastruktūras iniciatīvas, sasaistot to ar ilgtermiņa mākslīgā intelekta skaitļošanas plānošanu. Reuters ziņo, ka esošā universitātes pilsētiņa joprojām darbojas, taču finansēšanas kavējumi un mainīgās skaitļošanas vajadzības lika Oracle un OpenAI atteikties no paplašināšanas. Tas arī parāda, cik ātri var mainīties galvenās mākslīgā intelekta infrastruktūras likmes, pat ja plašāka būvniecība turpinās citur.
Kāpēc Meta ļauj konkurējošiem mākslīgā intelekta tērzēšanas robotiem izmantot WhatsApp Eiropā?
Meta spēra šo soli pēc ES pretmonopola regulatoru spiediena un sūdzībām, ka tā dod priekšroku savam asistentam, vienlaikus ierobežojot konkurentus. Piekļuve ir pagaidu un darbojas, izmantojot Business API, tāpēc tā nav pilnībā atvērto durvju politika. Joprojām tiek piemērota maksa, kas nozīmē, ka mazāki konkurenti var turpināt saskarties ar praktiskiem trūkumiem pat pēc koncesijas.
Ko Kalifornijas mākslīgā intelekta apmācības datu izpaušanas likums nozīmē xAI?
Tiesas atteikums bloķēt likumu nozīmē, ka xAI tagad ir jātiek galā ar papildu pārredzamības prasībām attiecībā uz apmācības datiem. Tas ir svarīgi, jo modeļu izstrādātāji bieži vien ir centušies izvairīties no detalizētas informācijas izpaušanas, īpaši, ja datu avots ir sensitīvs vai apstrīdēts. Praktiski runājot, apmācības dati kļūst par aktīvu atbilstības jautājumu, nevis paliek debašu centrā par pētniecības normām vai autortiesību risku.
Kāda ir svarīgākā atziņa no šīs nedēļas jaunumiem mākslīgā intelekta nozarē?
Kopīgā iezīme ir tā, ka mākslīgo intelektu (MI) veido ne tik daudz tikai produktu laišana klajā, cik pārvaldība, infrastruktūra un regulējums. Aizsardzības partnerības rada iekšējus konfliktus, skaitļošanas paplašināšana izrādās dārga un mainīga, un regulatori arvien vairāk pieprasa piekļuvi un informācijas izpaušanu. Rakstā norādīts, ka OpenAI, Anthropic, Meta un xAI nozarē nozare ir spiesta padarīt savus kompromisus redzamākus.