🏗️ ASV mudina uzņēmumus uz jauna mākslīgā intelekta datu centra “kompakta” izveidi, ziņo Politico ↗
Tiek ziņots, ka ASV cenšas panākt, lai lielie uzņēmumi parakstītu jaunu "kompaktu" mākslīgā intelekta datu centru izveidei — būtībā tas ir saistību kopums par to, kā jātiek galā ar šīm milzīgajām skaitļošanas jaudām.
Sīkāka informācija joprojām ir nedaudz miglaina (klasiska), taču virziens šķiet pazīstams: standartizēt cerības attiecībā uz enerģiju, drošību un, iespējams, arī ziņošanu — pieklājīga politikas versija frāzei “lūdzu, neļaujiet tam pārvērsties par haosu”
🎬 Autodesk iesūdz tiesā Google par mākslīgā intelekta darbinātu filmu veidošanas programmatūru ↗
Autodesk iesūdz tiesā Google par nosaukumu “Flow”, apgalvojot, ka tas jau izmanto “Flow” ražošanas un vizuālo efektu pārvaldības programmatūrai, un Google mākslīgā intelekta filmu veidošanas rīks ieradās ar tādu pašu zīmolu.
Asāka detaļa ir apgalvojums, ka Google iepriekš paziņoja, ka nekomercializēs nosaukumu… bet tomēr turpināja un pieteicās reģistrēt preču zīmes. Tā, protams, ir cīņa par preču zīmēm, taču tajā ir arī neliela mēroga “lielas platformas pret specializētu instrumentu ražotāju” enerģija.
🏥 Pētījums liecina, ka mākslīgais intelekts nav labāks par citām metodēm pacientiem, kuri meklē medicīnisku palīdzību ↗
Jaunā pētījumā atklāts, ka mākslīgā intelekta izmantošana pacientu medicīniskajām konsultācijām neuzrādīja labākus rezultātus nekā citas pieejas, kas nešķiet pārsteidzoši un nedaudz mierinoši atkarībā no tā, cik ļoti esat ignorējis simptomu pārbaudes.
Tas nenozīmē, ka mākslīgais intelekts veselības aprūpē ir bezjēdzīgs — vienkārši “jautā robotam” automātiski nenozīmē esošo iespēju uzlabojumu, it īpaši, ja galvenais ir precizitāte un drošība.
🩺 Mākslīgā intelekta darbinātas lietotnes un roboti ienāk medicīnā. Ārstiem ir jautājumi. ↗
Izmeklēšanā tiek pētīts, kā mākslīgā intelekta veselības lietotnes un tērzēšanas roboti ienāk klīniskajās vidēs — dažreiz ātrāk, nekā to spēj sniegt norādījumi, uzraudzība vai vienkārši pierādījumi.
Ārsti pauž bažas par uzticamību, kaitējumu pacientiem un to, kurš ir atbildīgs, ja bots sniedz padomus, kas izklausās pārliecināti, bet nepareizi… piemēram, satelītnavigācija, kas uzstāj, ka jums jāiebrauc ezerā, izņemot ar medikamentiem.
📈 OpenAI izpilddirektors apgalvo, ka ChatGPT atkal pieaug par vairāk nekā 10% mēnesī, ziņo CNBC ↗
OpenAI izpilddirektors esot teicis, ka ChatGPT ir atgriezies pie vairāk nekā 10% ikmēneša izaugsmes, kas ir liels sasniegums, ja pieņem, ka fāze “visi jau to ir izmēģinājuši” ir sasniegusi maksimumu.
Tas liek domāt, ka vai nu joprojām ieplūst jauni lietotāji, vai arī esošie lietotāji atrod vairāk iemeslu, lai paliktu, — vai abus. Jebkurā gadījumā produkts uzvedas nevis kā modes lieta, bet gan kā infrastruktūra… vai vismaz tā šķiet.
Bieži uzdotie jautājumi
Kādu ir ierosinātā mākslīgā intelekta datu centra “kompakta” izveide, ko ASV virza?
To raksturo kā saistību kopumu, ko lielie uzņēmumi uzņemtos, veidojot vai ekspluatējot lielus mākslīgā intelekta datu centrus. Mērķis ir standartizēt cerības, lai šie apjomīgie skaitļošanas projekti nekļūtu izkliedēti vai nekonsekventi dažādos uzņēmumos. Lai gan specifika joprojām šķiet neskaidra, uzsvars, šķiet, ir praktiskā jomā: enerģijas patēriņš, drošība un, iespējams, kāda veida atskaišu sniegšana.
Kāpēc ASV vēlētos, lai uzņēmumi parakstītu mākslīgā intelekta datu centru līgumu?
Kompakts var noteikt kopīgas pamata cerības, nepiespiežot likumdevējus izstrādāt jaunus noteikumus katram robežgadījumam. Tā kā mākslīgā intelekta datu centri strauji paplašinās, politikas veidotāji bieži uztraucas par ietekmi uz tīklu, drošības riskiem un darbības pārredzamību. Bieži sastopama stratēģija ir savlaicīgi piesaistīt lielākos dalībniekus, lai ātrāk izplatītos laba prakse un problēmu gadījumā būtu vieglāk izsekot atbildību.
Kādas saistības varētu iekļaut mākslīgā intelekta datu centra līgumā?
Pamatojoties uz to, kas ir iesniegts, saistības varētu aptvert enerģijas plānošanu (kā tiek iegūta un pārvaldīta enerģija), drošības pasākumus (fiziskos un kiberdrošības) un kādu ziņošanas vai informācijas atklāšanas veidu. Daudzos cauruļvados ziņošana kļūst par "īstenošanas" slāni, kas padara standartus salasāmus un izmērāmus. Ja pakts ir brīvprātīgs, šīs saistības var tikt formulētas kā vadlīnijas, kas vēlāk palīdz veidot regulējumu.
Kas ir tiesas prāva par Google mākslīgā intelekta filmu veidošanas rīku ar nosaukumu “Flow”?
Autodesk iesūdz tiesā Google par nosaukumu “Flow”, apgalvojot, ka Autodesk jau izmanto “Flow” ražošanas un VFX pārvaldības programmatūrai. Strīds tiek formulēts kā preču zīmes un zīmola konflikts, kā arī apgalvojums, ka Google iepriekš norādīja, ka nekomercializēs šo nosaukumu, bet vēlāk tomēr pieteica preču zīmes. Šajos gadījumos bieži tiek ņemta vērā zīmola prioritāte un sajaukšanas iespējamība.
Ko nozīmē tas, ka mākslīgais intelekts nebija labāks par citām pacientu medicīnisko padomu sniegšanas metodēm?
Tas liek domāt, ka “jautā robotam” automātiski nav precīzāks vai drošāks par esošajiem veidiem, kā pacienti meklē norādījumus. Tas var sniegt mierinājumu, ja jūs uztrauc pārāk pārliecinātas atbildes no simptomu pārbaudītājiem vai tērzēšanas robotiem. Tas neizslēdz mākslīgā intelekta potenciālo vērtību veselības aprūpē, taču uzsver nepieciešamību pēc pierādījumiem, uzraudzības un rūpīgas integrācijas, ja kļūdas var radīt kaitējumu.
Kāpēc ārsti ir noraizējušies par mākslīgā intelekta darbinātām veselības lietotnēm un tērzēšanas robotiem?
Ārsti uztraucas par uzticamību, kaitējumu pacientiem un to, kurš ir atbildīgs, ja rīks sniedz pārliecinātus, bet nepareizus padomus. Bažas rada ne tikai precizitāte; tas ir arī par to, kā pacienti interpretē rezultātus un vai sistēma mudina cilvēkus uz nedrošu pašpārvaldību. Klīniskajā vidē neskaidra atbildība var kļūt par nopietnu risku: pacienti var uzticēties rīkam, klīnicisti var to nekontrolēt, un norādījumi var atpalikt no ieviešanas.