Kiberdrošības eksperts analizē draudus, izmantojot ģeneratīvus mākslīgā intelekta rīkus.

Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā?

Ievads

Ģeneratīvais mākslīgais intelekts (MI) — mākslīgā intelekta sistēmas, kas spēj radīt jaunu saturu vai prognozes — kļūst par pārveidojošu spēku kiberdrošībā. Tādi rīki kā OpenAI GPT-4 ir pierādījuši spēju analizēt sarežģītus datus un ģenerēt cilvēkam līdzīgu tekstu, radot jaunas pieejas aizsardzībai pret kiberdraudiem. Kiberdrošības speciālisti un biznesa lēmumu pieņēmēji dažādās nozarēs pēta, kā ģeneratīvais MI var stiprināt aizsardzību pret mainīgiem uzbrukumiem. Sākot ar finansēm un veselības aprūpi un beidzot ar mazumtirdzniecību un valsts pārvaldi, organizācijas ikvienā nozarē saskaras ar sarežģītiem pikšķerēšanas mēģinājumiem, ļaunprogrammatūru un citiem draudiem, pret kuriem ģeneratīvais MI varētu palīdzēt cīnīties. Šajā informatīvajā dokumentā mēs izpētām, kā ģeneratīvo MI var izmantot kiberdrošībā , izceļot reālās pasaules lietojumprogrammas, nākotnes iespējas un svarīgus apsvērumus ieviešanai.

Ģeneratīvais mākslīgais intelekts atšķiras no tradicionālā analītiskā mākslīgā intelekta ar to, ka tas ne tikai atklāj modeļus, bet arī rada saturu — vai nu simulējot uzbrukumus aizsardzības apmācībai, vai radot dabiskas valodas skaidrojumus sarežģītiem drošības datiem. Šī divējāda spēja padara to par divvirzienu zobenu: tas piedāvā jaunus, jaudīgus aizsardzības rīkus, taču to var izmantot arī apdraudējumu radītāji. Turpmākajās sadaļās ir aplūkots plašs ģeneratīvā mākslīgā intelekta lietošanas gadījumu klāsts kiberdrošībā, sākot no pikšķerēšanas atklāšanas automatizācijas līdz incidentu reaģēšanas uzlabošanai. Mēs arī apspriežam ieguvumus, ko šie mākslīgā intelekta jauninājumi sola, kā arī riskus (piemēram, mākslīgā intelekta "halucinācijas" vai pretinieku ļaunprātīga izmantošana), kas organizācijām jāpārvalda. Visbeidzot, mēs sniedzam praktiskus secinājumus, kas palīdzēs uzņēmumiem novērtēt un atbildīgi integrēt ģeneratīvo mākslīgo intelektu savās kiberdrošības stratēģijās.

Ģeneratīvais mākslīgais intelekts kiberdrošībā: pārskats

Ģeneratīvais mākslīgais intelekts kiberdrošībā attiecas uz mākslīgā intelekta modeļiem – bieži vien lieliem valodu modeļiem vai citiem neironu tīkliem –, kas var ģenerēt ieskatus, ieteikumus, kodu vai pat sintētiskus datus, lai palīdzētu drošības uzdevumos. Atšķirībā no tīri paredzošiem modeļiem, ģeneratīvais mākslīgais intelekts var simulēt scenārijus un, pamatojoties uz saviem apmācības datiem, radīt cilvēkam lasāmus rezultātus (piemēram, pārskatus, brīdinājumus vai pat ļaunprātīga koda paraugus). Šī spēja tiek izmantota, lai prognozētu, atklātu un reaģētu uz draudiem dinamiskāk nekā iepriekš ( Kas ir ģeneratīvais mākslīgais intelekts kiberdrošībā? - Palo Alto Networks ). Piemēram, ģeneratīvie modeļi var analizēt plašus žurnālus vai draudu informācijas krātuves un izveidot kodolīgu kopsavilkumu vai ieteicamo darbību, darbojoties gandrīz kā mākslīgā intelekta “asistents” drošības komandām.

Agrīnā ģeneratīvā mākslīgā intelekta ieviešana kiberdrošībā ir bijusi daudzsološa. 2023. gadā Microsoft ieviesa Security Copilot — GPT-4 darbinātu palīgu drošības analītiķiem, lai palīdzētu identificēt pārkāpumus un atsijāt 65 triljonus signālu, ko Microsoft apstrādā katru dienu ( Microsoft Security Copilot ir jauns GPT-4 mākslīgā intelekta palīgs kiberdrošībai | The Verge ). Analītiķi var ievadīt šo sistēmu dabiskā valodā (piemēram “Apkopot visus drošības incidentus pēdējo 24 stundu laikā” ), un copilot ģenerēs noderīgu naratīvu kopsavilkumu. Līdzīgi Google draudu izlūkošanas mākslīgais intelekts izmanto ģeneratīvo modeli ar nosaukumu Gemini , lai nodrošinātu sarunvalodas meklēšanu Google plašajā draudu informācijas datubāzē, ātri analizējot aizdomīgu kodu un apkopojot atradumus, lai palīdzētu ļaunprogrammatūras medniekiem ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). Šie piemēri ilustrē potenciālu: ģeneratīvais mākslīgais intelekts var apstrādāt sarežģītus, liela mēroga kiberdrošības datus un sniegt ieskatus pieejamā formā, paātrinot lēmumu pieņemšanu.

Vienlaikus ģeneratīvais mākslīgais intelekts var radīt ļoti reālistisku viltotu saturu, kas ir ļoti noderīgi simulācijai un apmācībai (un diemžēl uzbrucējiem, kas izstrādā sociālo inženieriju). Pārejot pie konkrētiem lietošanas gadījumiem, mēs redzēsim, ka ģeneratīvā mākslīgā intelekta spēja gan sintezēt , gan analizēt informāciju ir tās daudzo kiberdrošības pielietojumu pamatā. Tālāk mēs iedziļināmies galvenajos lietošanas gadījumos, aptverot visu, sākot no pikšķerēšanas novēršanas līdz drošas programmatūras izstrādei, sniedzot piemērus, kā katrs no tiem tiek piemērots dažādās nozarēs.

Ģeneratīvā mākslīgā intelekta galvenie pielietojumi kiberdrošībā

Attēls: Galvenie ģeneratīvā mākslīgā intelekta lietošanas gadījumi kiberdrošībā ietver mākslīgā intelekta līdzpilotus drošības komandām, koda ievainojamību analīzi, adaptīvu draudu noteikšanu, nulles dienas uzbrukumu simulāciju, uzlabotu biometrisko drošību un pikšķerēšanas noteikšanu ( 6 ģeneratīvā mākslīgā intelekta lietošanas gadījumi kiberdrošībā [+ piemēri] ).

Pikšķerēšanas atklāšana un novēršana

Pikšķerēšana joprojām ir viens no visizplatītākajiem kiberdraudiem, kas maldina lietotājus noklikšķināt uz ļaunprātīgām saitēm vai izpaust akreditācijas datus. Ģeneratīvais mākslīgais intelekts tiek izmantots gan pikšķerēšanas mēģinājumu atklāšanai , gan lietotāju apmācības uzlabošanai, lai novērstu veiksmīgus uzbrukumus. Aizsardzības ziņā mākslīgā intelekta modeļi var analizēt e-pasta saturu un sūtītāju uzvedību, lai pamanītu smalkas pikšķerēšanas pazīmes, kuras noteikumu filtri varētu nepamanīt. Mācoties no lieliem likumīgu un krāpniecisku e-pastu datu kopumiem, ģeneratīvais modelis var atzīmēt toņa, formulējuma vai konteksta anomālijas, kas norāda uz krāpniecību – pat ja gramatika un pareizrakstība to vairs neatklāj. Faktiski Palo Alto Networks pētnieki norāda, ka ģeneratīvais mākslīgais intelekts var identificēt "smalkas pikšķerēšanas e-pastu pazīmes, kas citādi varētu palikt nepamanītas", palīdzot organizācijām būt soli priekšā krāpniekiem ( Kas ir ģeneratīvais mākslīgais intelekts kiberdrošībā? - Palo Alto Networks ).

Drošības komandas apmācības un analīzes nolūkos izmanto arī ģeneratīvo mākslīgo intelektu (AI), lai simulētu pikšķerēšanas uzbrukumus . Piemēram, Ironscales ieviesa GPT darbinātu pikšķerēšanas simulācijas rīku, kas automātiski ģenerē viltotus pikšķerēšanas e-pastus, kas pielāgoti organizācijas darbiniekiem ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā? 10 reāli piemēri ). Šie AI izstrādātie e-pasti atspoguļo jaunākās uzbrucēju taktikas, sniedzot darbiniekiem reālistisku praksi pikšķerēšanas satura atpazīšanā. Šāda personalizēta apmācība ir ļoti svarīga, jo uzbrucēji paši izmanto AI, lai radītu pārliecinošākus ēsmas avotus. Jāatzīmē, ka, lai gan ģeneratīvais AI var ģenerēt ļoti noslīpētus pikšķerēšanas ziņojumus (pagājuši tie laiki, kad viegli pamanāma lauzīta angļu valoda), aizstāvji ir atklājuši, ka AI nav nepārspējams. 2024. gadā IBM Security pētnieki veica eksperimentu, salīdzinot cilvēku rakstītus pikšķerēšanas e-pastus ar AI ģenerētiem e-pastiem, un "pārsteidzoši, ka AI ģenerētos e-pastus joprojām bija viegli atklāt, neskatoties uz to pareizo gramatiku" ( 6 ģeneratīvā AI lietošanas gadījumi kiberdrošībā [+ piemēri] ). Tas liecina, ka cilvēka intuīcija apvienojumā ar AI atbalstītu noteikšanu joprojām var atpazīt smalkas neatbilstības vai metadatu signālus AI rakstītās krāpniecībās.

Ģeneratīvais mākslīgais intelekts (MI) palīdz aizsargāties pret pikšķerēšanu arī citos veidos. Modeļus var izmantot, lai ģenerētu automatizētas atbildes vai filtrus , kas pārbauda aizdomīgus e-pastus. Piemēram, MI sistēma varētu atbildēt uz e-pastu ar noteiktiem vaicājumiem, lai pārbaudītu sūtītāja likumību, vai izmantot tiesību zinātņu palīgu (LLM), lai analizētu e-pasta saites un pielikumus smilškastē un pēc tam apkopotu visus ļaunprātīgos nodomus. NVIDIA drošības platforma Morpheus demonstrē MI spēku šajā jomā — tā izmanto ģeneratīvos NLP modeļus, lai ātri analizētu un klasificētu e-pastus, un tika konstatēts, ka tā uzlabo mērķpikšķerēšanas e-pastu noteikšanu par 21 % salīdzinājumā ar tradicionālajiem drošības rīkiem ( 6 ģeneratīvā MI lietošanas gadījumi kiberdrošībā [+ piemēri] ). Morpheus pat profilē lietotāju saziņas modeļus, lai atklātu neparastu uzvedību (piemēram, lietotājs pēkšņi nosūta e-pastus uz daudzām ārējām adresēm), kas var liecināt par kompromitētu kontu, kas sūta pikšķerēšanas e-pastus.

Praksē uzņēmumi dažādās nozarēs sāk uzticēties mākslīgajam intelektam (MI), lai filtrētu e-pasta un tīmekļa datplūsmu, meklējot sociālās inženierijas uzbrukumus. Piemēram, finanšu uzņēmumi izmanto ģeneratīvo MI, lai skenētu saziņu, meklējot mēģinājumus uzdoties par personu, kas varētu novest pie krāpšanas, savukārt veselības aprūpes sniedzēji izmanto MI, lai aizsargātu pacientu datus no ar pikšķerēšanu saistītiem pārkāpumiem. Ģenerējot reālistiskus pikšķerēšanas scenārijus un identificējot ļaunprātīgu ziņojumu pazīmes, ģeneratīvais MI pievieno spēcīgu slāni pikšķerēšanas novēršanas stratēģijām. Secinājums: MI var palīdzēt ātrāk un precīzāk atklāt un atbruņot pikšķerēšanas uzbrukumus , pat ja uzbrucēji izmanto to pašu tehnoloģiju, lai uzlabotu savu sniegumu.

Ļaunprogrammatūras noteikšana un draudu analīze

Mūsdienu ļaunprogrammatūra nepārtraukti attīstās – uzbrucēji ģenerē jaunus variantus vai maskē kodu, lai apietu pretvīrusu parakstus. Ģeneratīvais mākslīgais intelekts piedāvā jaunas metodes gan ļaunprogrammatūras noteikšanai, gan tās uzvedības izpratnei. Viena pieeja ir izmantot mākslīgo intelektu, lai ģenerētu ļaunprogrammatūras “ļaunos dvīņus” : drošības pētnieki var ievadīt zināmu ļaunprogrammatūras paraugu ģeneratīvajā modelī, lai izveidotu daudzus mutētus šīs ļaunprogrammatūras variantus. To darot, viņi efektīvi paredz uzbrucēja iespējamos pielāgojumus. Šos mākslīgā intelekta ģenerētos variantus pēc tam var izmantot, lai apmācītu pretvīrusu un ielaušanās atklāšanas sistēmas, lai pat modificētas ļaunprogrammatūras versijas tiktu atpazītas dabā ( 6 ģeneratīvā mākslīgā intelekta lietošanas gadījumi kiberdrošībā [+ piemēri] ). Šī proaktīvā stratēģija palīdz pārtraukt ciklu, kurā hakeri nedaudz maina savu ļaunprogrammatūru, lai izvairītos no atklāšanas, un aizstāvjiem katru reizi ir jāsteidzas rakstīt jaunus parakstus. Kā atzīmēts vienā nozares aplādē, drošības eksperti tagad izmanto ģeneratīvo mākslīgo intelektu, lai “simulētu tīkla trafiku un ģenerētu ļaunprātīgu slodzi, kas atdarina sarežģītus uzbrukumus”, pārbaudot savu aizsardzību pret visu draudu saimi, nevis vienu gadījumu. Šī adaptīvā draudu noteikšana nozīmē, ka drošības rīki kļūst noturīgāki pret polimorfu ļaunprogrammatūru, kas citādi izslīdētu cauri.

Papildus atklāšanai ģeneratīvais mākslīgais intelekts (MI) palīdz ļaunprogrammatūras analīzē un reversajā inženierijā , kas tradicionāli ir darbietilpīgi uzdevumi draudu analītiķiem. Lieliem valodu modeļiem var uzdot pārbaudīt aizdomīgu kodu vai skriptus un vienkāršā valodā izskaidrot, ko kods ir paredzēts darīt. Reāls piemērs ir VirusTotal Code Insight — Google VirusTotal funkcija, kas izmanto ģeneratīvo MI modeli (Google Sec-PaLM), lai izveidotu potenciāli ļaunprātīga koda dabiskās valodas kopsavilkumus ( Kā ģeneratīvo MI var izmantot kiberdrošībā? 10 reāli piemēri ). Tas būtībā ir “ChatGPT veids, kas veltīts drošības kodēšanai”, kas darbojas kā MI ļaunprogrammatūras analītiķis, kurš strādā visu diennakti, lai palīdzētu cilvēkiem-analītiķiem izprast draudus ( 6 ģeneratīvā MI lietošanas gadījumi kiberdrošībā [+ piemēri] ). Drošības komandas loceklis, nevis iedziļinoties nepazīstamā skriptā vai binārajā kodā, var nekavējoties saņemt MI skaidrojumu, piemēram: “Šis skripts mēģina lejupielādēt failu no XYZ servera un pēc tam modificēt sistēmas iestatījumus, kas liecina par ļaunprogrammatūras darbību.” Tas ievērojami paātrina reaģēšanu uz incidentiem, jo ​​analītiķi var ātrāk nekā jebkad agrāk šķirot un izprast jaunu ļaunprogrammatūru.

Ģeneratīvo mākslīgo intelektu (MI) izmanto arī, lai milzīgos datu kopumos noteiktu ļaunprogrammatūru . Tradicionālās pretvīrusu programmas skenē failus, meklējot zināmus parakstus, bet ģeneratīvais modelis var novērtēt faila raksturlielumus un pat paredzēt, vai tas ir ļaunprātīgs, pamatojoties uz apgūtiem modeļiem. Analizējot miljardu failu (gan ļaunprātīgu, gan labdabīgu) atribūtus, MI var atklāt ļaunprātīgu nodomu, ja nav tieša paraksta. Piemēram, ģeneratīvais modelis varētu atzīmēt izpildāmo failu kā aizdomīgu, jo tā uzvedības profils "izskatās" pēc nelielas izspiedējvīrusa variācijas, ko tas redzēja apmācības laikā, pat ja binārais fails ir jauns. Šī uz uzvedību balstītā noteikšana palīdz cīnīties pret jaunu vai nulles dienas ļaunprogrammatūru. Google draudu izlūkošanas MI (daļa no Chronicle/Mandiant), kā ziņots, izmanto savu ģeneratīvo modeli, lai analizētu potenciāli ļaunprātīgu kodu un "efektīvāk un lietderīgāk palīdzētu drošības speciālistiem cīnīties pret ļaunprogrammatūru un cita veida draudiem". ( Kā ģeneratīvo MI var izmantot kiberdrošībā? 10 reāli piemēri ).

No otras puses, mums jāatzīst, ka uzbrucēji arī šeit var izmantot ģeneratīvo mākslīgo intelektu (MI), lai automātiski izveidotu ļaunprogrammatūru, kas pielāgojas. Patiesībā drošības eksperti brīdina, ka ģeneratīvais MI var palīdzēt kibernoziedzniekiem izstrādāt ļaunprogrammatūru , kuru ir grūtāk atklāt ( Kas ir ģeneratīvais MI kiberdrošībā? - Palo Alto Networks ). MI modelim var dot norādījumus atkārtoti pārveidot ļaunprogrammatūras daļu (mainot tās failu struktūru, šifrēšanas metodes utt.), līdz tā apiet visas zināmās pretvīrusu pārbaudes. Šī naidīgā izmantošana rada arvien lielākas bažas (dažreiz to dēvē par "MI darbinātu ļaunprogrammatūru" vai polimorfu ļaunprogrammatūru kā pakalpojumu). Mēs apspriedīsim šādus riskus vēlāk, taču tas uzsver, ka ģeneratīvais MI ir instruments šajā kaķa un peles spēlē, ko izmanto gan aizstāvji, gan uzbrucēji.

Kopumā ģeneratīvais mākslīgais intelekts uzlabo aizsardzību pret ļaunprogrammatūru, ļaujot drošības komandām domāt kā uzbrucējiem — ģenerējot jaunus draudus un risinājumus uzņēmuma iekšienē. Neatkarīgi no tā, vai tiek radīta sintētiska ļaunprogrammatūra, lai uzlabotu atklāšanas rādītājus, vai tiek izmantota mākslīgā intelekta izmantošana, lai izskaidrotu un ierobežotu reālu ļaunprogrammatūru, kas atrodama tīklos, šīs metodes ir piemērojamas dažādās nozarēs. Banka var izmantot mākslīgā intelekta vadītu ļaunprogrammatūras analīzi, lai ātri analizētu aizdomīgu makro izklājlapā, savukārt ražošanas uzņēmums var paļauties uz mākslīgo intelektu, lai atklātu ļaunprogrammatūru, kas vērsta pret rūpnieciskajām vadības sistēmām. Papildinot tradicionālo ļaunprogrammatūras analīzi ar ģeneratīvo mākslīgo intelektu, organizācijas var reaģēt uz ļaunprogrammatūras kampaņām ātrāk un proaktīvāk nekā iepriekš.

Draudu izlūkošana un automatizēta analīze

Katru dienu organizācijas tiek bombardētas ar apdraudējumu izlūkošanas datiem – sākot ar jaunatklātu kompromitēšanas indikatoru (IOC) plūsmām un beidzot ar analītiķu ziņojumiem par jaunām hakeru taktikām. Drošības komandu izaicinājums ir atsijāt šo informācijas plūdu un iegūt praktiski izmantojamas atziņas. Ģeneratīvais mākslīgais intelekts izrādās nenovērtējams apdraudējumu izlūkošanas analīzes un patēriņa automatizācijā . Tā vietā, lai manuāli lasītu desmitiem ziņojumu vai datubāzes ierakstu, analītiķi var izmantot mākslīgo intelektu, lai apkopotu un kontekstualizētu apdraudējumu informāciju datora ātrumā.

Viens konkrēts piemērs ir Google draudu izlūkošanas komplekts, kas integrē ģeneratīvo mākslīgo intelektu (Gemini modeli) ar Google draudu datu krātuvēm no Mandiant un VirusTotal. Šis mākslīgais intelekts nodrošina “sarunas meklēšanu Google plašajā draudu informācijas krātuvē” , ļaujot lietotājiem uzdot dabiskus jautājumus par draudiem un saņemt skaidras atbildes ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). Piemēram, analītiķis varētu jautāt: “Vai esam redzējuši kādu ar X draudu grupu saistītu ļaunprogrammatūru, kas vērsta uz mūsu nozari?”, un mākslīgais intelekts iegūs atbilstošu informāciju, piemēram, norādot : “Jā, X draudu grupa pagājušajā mēnesī bija saistīta ar pikšķerēšanas kampaņu, izmantojot ļaunprogrammatūru Y” , kā arī šīs ļaunprogrammatūras uzvedības kopsavilkumu. Tas ievērojami samazina laiku, lai apkopotu ieskatus, kas citādi prasītu vairāku rīku vaicājumus vai garu ziņojumu lasīšanu.

Ģeneratīvais mākslīgais intelekts var arī korelēt un apkopot apdraudējumu tendences . Tas varētu pārskatīt tūkstošiem drošības emuāra ierakstu, ziņas par pārkāpumiem un tumšā tīmekļa tērzēšanu un pēc tam ģenerēt kopsavilkumu par "šīs nedēļas lielākajiem kiberdraudiem" CISO instruktāžai. Tradicionāli šāda līmeņa analīze un ziņošana prasīja ievērojamas cilvēku pūles; tagad labi noregulēts modelis to var izstrādāt dažu sekunžu laikā, cilvēkiem tikai pilnveidojot rezultātu. Tādi uzņēmumi kā ZeroFox ir izstrādājuši FoxGPT — ģeneratīvo mākslīgā intelekta rīku, kas īpaši paredzēts, lai "paātrinātu informācijas analīzi un apkopošanu lielos datu kopumos", tostarp ļaunprātīgā saturā un pikšķerēšanas datos ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). Automatizējot datu lasīšanas un savstarpējo atsauču veidošanas smago darbu, mākslīgais intelekts ļauj apdraudējumu izlūkošanas komandām koncentrēties uz lēmumu pieņemšanu un reaģēšanu.

Vēl viens lietošanas gadījums ir sarunvalodas apdraudējumu meklēšana . Iedomājieties, ka drošības analītiķis mijiedarbojas ar mākslīgā intelekta palīgu: "Parādiet man jebkādas datu noplūdes pazīmes pēdējo 48 stundu laikā" vai "Kādas ir galvenās jaunās ievainojamības, ko uzbrucēji izmanto šonedēļ?". Mākslīgais intelekts var interpretēt vaicājumu, meklēt iekšējos žurnālos vai ārējos izlūkošanas avotos un atbildēt ar skaidru atbildi vai pat atbilstošu incidentu sarakstu. Tas nav nekas neticams – mūsdienu drošības informācijas un notikumu pārvaldības (SIEM) sistēmas sāk iekļaut dabiskās valodas vaicājumus. Piemēram, IBM QRadar drošības komplekts 2024. gadā pievienos ģeneratīvās mākslīgā intelekta funkcijas, lai analītiķi varētu "uzdot [...] konkrētus jautājumus par apkopoto uzbrukuma ceļu" incidentam un saņemt detalizētas atbildes. Tas var arī "interpretēt un apkopot ļoti atbilstošu apdraudējumu informāciju" ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). Būtībā ģeneratīvais mākslīgais intelekts pēc pieprasījuma pārvērš tehnisko datu kalnus tērzēšanas izmēra ieskatos.

Tam ir lielas sekas dažādās nozarēs. Veselības aprūpes sniedzējs var izmantot mākslīgo intelektu (AI), lai sekotu līdzi jaunākajām izspiedējvīrusu grupām, kas vērstas pret slimnīcām, neveltot analītiķi pilnas slodzes pētniecībai. Mazumtirdzniecības uzņēmuma SOC var ātri apkopot jaunas POS ļaunprogrammatūras taktikas, instruējot veikala IT darbiniekus. Savukārt valdībā, kur ir jāsintezē dažādu aģentūru apdraudējumu dati, AI var sagatavot vienotus pārskatus, izceļot galvenos brīdinājumus. Automatizējot apdraudējumu informācijas vākšanu un interpretāciju , ģeneratīvais AI palīdz organizācijām ātrāk reaģēt uz jauniem apdraudējumiem un samazina risku nepamanīt kritiskus brīdinājumus, kas paslēpti troksnī.

Drošības operāciju centra (SOC) optimizācija

Drošības operāciju centri ir pazīstami ar trauksmes signālu nogurumu un milzīgu datu apjomu. Tipisks SOC analītiķis katru dienu var apstrādāt tūkstošiem brīdinājumu un notikumu, izmeklējot potenciālus incidentus. Ģeneratīvais mākslīgais intelekts SOC darbojas kā spēka reizinātājs, automatizējot ikdienas darbu, sniedzot inteliģentus kopsavilkumus un pat organizējot dažas atbildes. Mērķis ir optimizēt SOC darbplūsmas, lai cilvēku analītiķi varētu koncentrēties uz vissvarīgākajiem jautājumiem, kamēr mākslīgā intelekta otrais pilots veic pārējo.

Viens no galvenajiem pielietojumiem ir ģeneratīvā mākslīgā intelekta izmantošana kā “analītiķa līdzpilots” . Iepriekš minētais Microsoft drošības līdzpilots to labi ilustrē: tas “ir izstrādāts, lai palīdzētu drošības analītiķa darbā, nevis aizstātu to”, palīdzot incidentu izmeklēšanā un ziņošanā ( Microsoft drošības līdzpilots ir jauns GPT-4 mākslīgā intelekta palīgs kiberdrošībai | The Verge ). Praksē tas nozīmē, ka analītiķis var ievadīt neapstrādātus datus – ugunsmūra žurnālus, notikumu laika grafiku vai incidenta aprakstu – un lūgt mākslīgajam intelektam tos analizēt vai apkopot. Līdzpilots varētu izvadīt stāstījumu, piemēram, “Šķiet, ka plkst. 2:35 no rīta serverī Y izdevās aizdomīga pieteikšanās no IP adreses X, kam sekoja neparasta datu pārsūtīšana, kas norāda uz iespējamu šī servera pārkāpumu.” Šāda veida tūlītēja kontekstualizācija ir nenovērtējama, kad laiks ir ļoti svarīgs.

Arī mākslīgā intelekta līdzpiloti palīdz samazināt 1. līmeņa triāžas slogu. Saskaņā ar nozares datiem drošības komanda var pavadīt 15 stundas nedēļā, vienkārši šķirojot aptuveni 22 000 brīdinājumu un viltus pozitīvu rezultātu ( 6 ģeneratīvā mākslīgā intelekta lietošanas gadījumi kiberdrošībā [+ piemēri] ). Izmantojot ģeneratīvo mākslīgo intelektu, daudzus no šiem brīdinājumiem var automātiski triādēt — mākslīgais intelekts var noraidīt tos, kas ir nepārprotami nekaitīgi (ar sniegtu pamatojumu), un izcelt tos, kuriem patiešām jāpievērš uzmanība, dažreiz pat iesakot prioritāti. Faktiski ģeneratīvā mākslīgā intelekta spēja izprast kontekstu nozīmē, ka tas var savstarpēji korelēt brīdinājumus, kas atsevišķi varētu šķist nekaitīgi, bet kopā norāda uz daudzpakāpju uzbrukumu. Tas samazina iespēju palaist garām uzbrukumu “trauksmes noguruma” dēļ.

SOC analītiķi arī izmanto dabisko valodu ar mākslīgo intelektu (MI), lai paātrinātu medības un izmeklēšanu. Piemēram, Purple AI "uzdot sarežģītus draudu meklēšanas jautājumus vienkāršā angļu valodā un saņemt ātras, precīzas atbildes" ( Kā ģeneratīvo MI var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). Analītiķis varētu ierakstīt: "Vai pēdējā mēneša laikā kādi galapunkti ir sazinājušies ar domēnu badguy123[.]com?" , un Purple AI meklēs žurnālos, lai atbildētu. Tas ietaupa analītiķim no datubāzes vaicājumu vai skriptu rakstīšanas — MI to dara nemanāmi. Tas arī nozīmē, ka jaunākie analītiķi var veikt uzdevumus, kuriem iepriekš bija nepieciešams pieredzējis inženieris, kas pārzina vaicājumu valodas, efektīvi uzlabojot komandas prasmes, izmantojot MI palīdzību . Patiešām, analītiķi ziņo, ka ģeneratīvā MI vadība "uzlabo viņu prasmes un kompetenci" , jo jaunākie darbinieki tagad var saņemt kodēšanas atbalstu vai analīzes padomus pēc pieprasījuma no MI, samazinot atkarību no pastāvīgas palīdzības lūgšanas vecākajiem komandas locekļiem ( 6 ģeneratīvā MI lietošanas gadījumi kiberdrošībā [+ piemēri] ).

Vēl viena SOC optimizācija ir automatizēta incidentu apkopošana un dokumentēšana . Pēc incidenta apstrādes kādam ir jāuzraksta ziņojums – uzdevums, ko daudzi uzskata par nogurdinošu. Ģeneratīvais mākslīgais intelekts var ņemt vērā kriminālistikas datus (sistēmas žurnālus, ļaunprogrammatūras analīzi, darbību laika grafiku) un ģenerēt incidenta ziņojuma pirmo melnrakstu. IBM iebūvē šo iespēju QRadar, lai ar “vienu klikšķi” varētu izveidot incidenta kopsavilkumu dažādām ieinteresētajām personām (vadītājiem, IT komandām utt.) ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). Tas ne tikai ietaupa laiku, bet arī nodrošina, ka ziņojumā nekas netiek palaists garām, jo ​​mākslīgais intelekts var konsekventi iekļaut visu būtisko informāciju. Tāpat atbilstības un audita vajadzībām mākslīgais intelekts var aizpildīt veidlapas vai pierādījumu tabulas, pamatojoties uz incidentu datiem.

Reālās pasaules rezultāti ir pārliecinoši. Swimlane mākslīgā intelekta vadītās SOAR (drošības orķestrēšana, automatizācija un reaģēšana) agrīnie lietotāji ziņo par milzīgu produktivitātes pieaugumu – piemēram, Global Data Systems redzēja, ka viņu SecOps komanda pārvalda daudz lielāku lietu slodzi; viens direktors teica, ka "tas, ko es šodien daru ar 7 analītiķiem, iespējams, prasītu 20 darbiniekus bez" mākslīgā intelekta darbinātās automatizācijas ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā ). Citiem vārdiem sakot, mākslīgais intelekts SOC var daudzkāršot jaudu . Visās nozarēs, neatkarīgi no tā, vai tas ir tehnoloģiju uzņēmums, kas nodarbojas ar mākoņa drošības brīdinājumiem, vai ražotne, kas uzrauga OT sistēmas, SOC komandas, izmantojot ģeneratīvos mākslīgā intelekta asistentus, var iegūt ātrāku atklāšanu un reaģēšanu, mazāk nepamanītu incidentu un efektīvāku darbību. Runa ir par gudrāku darbu – ļaujot mašīnām tikt galā ar atkārtotiem un ar datiem apjomīgiem uzdevumiem, lai cilvēki varētu pielietot savu intuīciju un zināšanas tur, kur tas ir visvairāk nepieciešams.

Ievainojamību pārvaldība un draudu simulācija

Ievainojamību — programmatūras vai sistēmu trūkumu, ko uzbrucēji varētu izmantot — identificēšana un pārvaldība ir viena no kiberdrošības pamatfunkcijām. Ģeneratīvais mākslīgais intelekts uzlabo ievainojamību pārvaldību, paātrinot atklāšanu, palīdzot noteikt ielāpu prioritātes un pat simulējot uzbrukumus šīm ievainojamībām, lai uzlabotu sagatavotību. Būtībā mākslīgais intelekts palīdz organizācijām ātrāk atrast un novērst nepilnības savās bruņās un proaktīvi testēt aizsardzību, pirms to dara īsti uzbrucēji.

Viens no nozīmīgiem pielietojumiem ir ģeneratīvā mākslīgā intelekta (MI) izmantošana automatizētai koda pārskatīšanai un ievainojamību atklāšanai . Lielās koda bāzēs (īpaši mantotajās sistēmās) bieži vien ir drošības trūkumi, kas paliek nepamanīti. Ģeneratīvā MI modeļus var apmācīt drošā kodēšanas praksē un izplatītos kļūdu modeļos, pēc tam tos var izmantot avota kodā vai kompilētos binārajos failos, lai atrastu potenciālas ievainojamības. Piemēram, NVIDIA pētnieki izstrādāja ģeneratīvā MI cauruļvadu, kas varētu analizēt mantotās programmatūras konteinerus un identificēt ievainojamības "ar augstu precizitāti — līdz pat 4 reizēm ātrāk nekā cilvēku eksperti". ( 6 ģeneratīvā MI lietošanas gadījumi kiberdrošībā [+ piemēri] ). MI būtībā iemācījās, kā izskatās nedrošs kods, un spēja skenēt gadu desmitiem vecu programmatūru, lai atzīmētu riskantas funkcijas un bibliotēkas, ievērojami paātrinot parasti lēno manuālās koda auditēšanas procesu. Šāda veida rīks var mainīt spēles noteikumus tādās nozarēs kā finanšu vai valdības iestādes, kas paļaujas uz lielām, vecākām koda bāzēm — MI palīdz modernizēt drošību, atklājot problēmas, kuru atrašana darbiniekiem varētu prasīt mēnešus vai gadus (ja vispār).

Ģeneratīvais mākslīgais intelekts (MI) arī palīdz ievainojamību pārvaldības darbplūsmās , apstrādājot ievainojamību skenēšanas rezultātus un piešķirot tiem prioritāti. Tādi rīki kā Tenable ExposureAI izmanto ģeneratīvo MI, lai analītiķi varētu vienkāršā valodā vaicāt ievainojamību datus un saņemt tūlītējas atbildes ( Kā ģeneratīvo MI var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). ExposureMI var “apkopot pilnu uzbrukuma ceļu naratīvā” konkrētai kritiskai ievainojamībai, paskaidrojot, kā uzbrucējs to varētu saistīt ar citiem ievainojamībām, lai apdraudētu sistēmu. Tas pat iesaka darbības, lai novērstu problēmu, un atbild uz papildu jautājumiem par risku. Tas nozīmē, ka, paziņojot par jaunu kritisku CVE (bieži sastopamām ievainojamībām un atkarībām), analītiķis varētu jautāt MI: “Vai kāds no mūsu serveriem ir ietekmēts ar šo CVE, un kāds ir sliktākais scenārijs, ja mēs to neinstalēsim?”, un saņemt skaidru novērtējumu, kas iegūts no organizācijas pašas skenēšanas datiem. Kontekstualizējot ievainojamības (piemēram, šī ir pakļauta internetam un atrodas augstas vērtības serverī, tāpēc tā ir galvenā prioritāte), ģeneratīvais MI palīdz komandām viedi veikt ielāpus ar ierobežotiem resursiem.

Papildus zināmu ievainojamību atrašanai un pārvaldībai ģeneratīvais mākslīgais intelekts (MI) veicina ielaušanās testēšanu un uzbrukumu simulāciju – būtībā atklājot nezināmas ievainojamības vai testējot drošības kontroles. Ģeneratīvie pretinieku tīkli (GAN), kas ir ģeneratīvā MI veids, ir izmantoti, lai izveidotu sintētiskus datus, kas imitē reālu tīkla trafiku vai lietotāja uzvedību, kas var ietvert slēptus uzbrukumu modeļus. 2023. gada pētījumā tika ieteikts izmantot GAN, lai ģenerētu reālistisku nulles dienas uzbrukumu trafiku ielaušanās atklāšanas sistēmu apmācībai ( 6 ģeneratīvā MI lietošanas gadījumi kiberdrošībā [+ piemēri] ). Apkalpojot Ielaušanās atklāšanas sistēmas (IDS) ar MI izstrādātiem uzbrukumu scenārijiem (kas neriskē izmantot reālu ļaunprogrammatūru ražošanas tīklos), organizācijas var apmācīt savu aizsardzību atpazīt jaunus draudus, negaidot, kad tie skars tās realitātē. Līdzīgi MI var simulēt uzbrucēju, kas pārbauda sistēmu – piemēram, automātiski izmēģinot dažādas izmantošanas metodes drošā vidē, lai redzētu, vai kāda no tām ir veiksmīga. ASV Aizsardzības progresīvo pētījumu projektu aģentūra (DARPA) šeit saskata potenciālu: tās 2023. gada mākslīgā intelekta kiberizaicinājums nepārprotami izmanto ģeneratīvo mākslīgo intelektu (piemēram, lielus valodu modeļus), lai “automātiski atrastu un novērstu ievainojamības atvērtā pirmkoda programmatūrā” kā daļu no konkursa ( DARPA mērķis ir izstrādāt mākslīgo intelektu, autonomijas lietojumprogrammas, kurām Warfighters Can Trust > ASV Aizsardzības departaments > Aizsardzības departamenta jaunumi ). Šī iniciatīva uzsver, ka mākslīgais intelekts ne tikai palīdz novērst zināmas nepilnības; tas aktīvi atklāj jaunas un piedāvā risinājumus, kas tradicionāli ir tikai kvalificētu (un dārgu) drošības pētnieku uzdevums.

Ģeneratīvais mākslīgais intelekts (MI) aizsardzības nolūkos var pat radīt inteliģentus medus podus (medus podus) un digitālos dvīņus . Jaunuzņēmumi izstrādā MI vadītas mānekļu sistēmas, kas pārliecinoši atdarina reālus serverus vai ierīces. Kā paskaidroja viens izpilddirektors, ģeneratīvais MI var "klonēt digitālās sistēmas, lai atdarinātu reālas sistēmas un pievilinātu hakerus" ( 6 ģeneratīvā MI lietošanas gadījumi kiberdrošībā [+ piemēri] ). Šie MI ģenerētie medus podi uzvedas līdzīgi kā reālā vide (piemēram, viltota IoT ierīce, kas sūta parastu telemetriju), bet pastāv tikai un vienīgi, lai piesaistītu uzbrucējus. Kad uzbrucējs ir izvēlējies mērķi māneklim, MI būtībā ir piemānījis viņu, lai atklātu savas metodes, kuras aizstāvji pēc tam var pētīt un izmantot, lai pastiprinātu reālās sistēmas. Šī koncepcija, kuras pamatā ir ģeneratīvā modelēšana, nodrošina uz nākotni vērstu veidu, kā apgriezt situāciju pret uzbrucējiem , izmantojot MI uzlabotu maldināšanu.

Visās nozarēs ātrāka un viedāka ievainojamību pārvaldība nozīmē mazāk pārkāpumu. Piemēram, veselības aprūpes IT jomā mākslīgais intelekts var ātri pamanīt neaizsargātu novecojušu bibliotēku medicīnas ierīcē un ierosināt programmaparatūras labojumu, pirms uzbrucējs to izmanto. Banku nozarē mākslīgais intelekts varētu simulēt iekšējās personas uzbrukumu jaunai lietojumprogrammai, lai nodrošinātu klientu datu drošību visos scenārijos. Tādējādi ģeneratīvais mākslīgais intelekts darbojas gan kā mikroskops, gan kā stresa testeris organizāciju drošības stāvoklim: tas izgaismo slēptus trūkumus un iztēles bagātos veidos rada spiedienu uz sistēmām, lai nodrošinātu noturību.

Droša koda ģenerēšana un programmatūras izstrāde

Ģeneratīvā mākslīgā intelekta talanti neaprobežojas tikai ar uzbrukumu atklāšanu – tie sniedzas arī uz drošāku sistēmu izveidi jau no paša sākuma . Programmatūras izstrādē mākslīgā intelekta koda ģeneratori (piemēram, GitHub Copilot, OpenAI Codex utt.) var palīdzēt izstrādātājiem ātrāk rakstīt kodu, iesakot koda fragmentus vai pat veselas funkcijas. Kiberdrošības aspekts ir nodrošināt, ka šie mākslīgā intelekta ieteiktie koda fragmenti ir droši, un izmantot mākslīgo intelektu, lai uzlabotu kodēšanas praksi.

No vienas puses, ģeneratīvais mākslīgais intelekts var darboties kā kodēšanas palīgs, kas iestrādā drošības labāko praksi . Izstrādātāji var pieprasīt mākslīgā intelekta rīku “Ģenerēt paroles atiestatīšanas funkciju Python valodā” un ideālā gadījumā saņemt atpakaļ kodu, kas ir ne tikai funkcionāls, bet arī atbilst drošības vadlīnijām (piemēram, pareiza ievades validācija, reģistrēšana, kļūdu apstrāde bez informācijas noplūdes utt.). Šāds palīgs, kas apmācīts ar plašiem droša koda piemēriem, var palīdzēt samazināt cilvēciskās kļūdas, kas rada ievainojamības. Piemēram, ja izstrādātājs aizmirst attīrīt lietotāja ievadi (atverot durvis SQL injekcijai vai līdzīgām problēmām), mākslīgais intelekts varētu to iekļaut pēc noklusējuma vai brīdināt. Daži mākslīgā intelekta kodēšanas rīki tagad tiek precizēti ar uz drošību vērstiem datiem, lai kalpotu tieši šim mērķim – būtībā mākslīgais intelekts apvieno programmēšanu ar drošības apziņu .

Tomēr ir arī otra puse: ģeneratīvais mākslīgais intelekts (MI) var tikpat viegli radīt ievainojamības, ja tas netiek pienācīgi pārvaldīts. Kā atzīmēja Sophos drošības eksperts Bens Veršērens, ģeneratīvā MI izmantošana kodēšanai ir "laba īsam, pārbaudāmam kodam, bet riskanta, ja ražošanas sistēmās tiek integrēts nepārbaudīts kods". Risks ir tāds, ka MI var radīt loģiski pareizu kodu, kas ir nedrošs tādā veidā, ko neeksperts varētu nepamanīt. Turklāt ļaunprātīgi lietotāji var apzināti ietekmēt publiskos MI modeļus, ievadot tos ar ievainojamu koda modeli (datu saindēšanas veids), lai MI ieteiktu nedrošu kodu. Lielākā daļa izstrādātāju nav drošības eksperti , tāpēc, ja MI iesaka ērtu risinājumu, viņi var to izmantot akli, neapzinoties, ka tam ir trūkums ( 6 ģeneratīvā MI lietošanas gadījumi kiberdrošībā [+ piemēri] ). Šīs bažas ir reālas – patiesībā tagad ir OWASP 10 labāko modeļu saraksts lieliem valodu modeļiem (LLM), kurā ir izklāstīti šādi izplatīti riski, izmantojot MI kodēšanai.

Lai risinātu šīs problēmas, eksperti iesaka kodēšanas jomā “cīnīties pret ģeneratīvo mākslīgo intelektu (MI) ar ģeneratīvo MI” pārskatītu un testētu kodu , ko uzrakstījis cits MI (vai cilvēki). MI var skenēt jaunus koda grozījumus daudz ātrāk nekā cilvēka koda recenzents un atzīmēt potenciālas ievainojamības vai loģikas problēmas. Mēs jau redzam rīkus, kas integrējas programmatūras izstrādes dzīves ciklā: kods tiek rakstīts (iespējams, ar MI palīdzību), pēc tam ģeneratīvs modelis, kas apmācīts pēc droša koda principiem, to pārskata un ģenerē ziņojumu par visām bažām (piemēram, novecojušu funkciju izmantošana, trūkstošas ​​autentifikācijas pārbaudes utt.). Iepriekš minētais NVIDIA pētījums, kas panāca 4 reizes ātrāku ievainojamību noteikšanu kodā, ir MI izmantošanas piemērs drošai koda analīzei ( 6 ģeneratīvā MI lietošanas gadījumi kiberdrošībā [+ piemēri] ).

Turklāt ģeneratīvais mākslīgais intelekts var palīdzēt drošu konfigurāciju un skriptu izveidē . Piemēram, ja uzņēmumam ir jāizveido droša mākoņinfrastruktūra, inženieris varētu lūgt mākslīgajam intelektam ģenerēt konfigurācijas skriptus (infrastruktūra kā kods) ar iebūvētiem drošības kontroles mehānismiem (piemēram, pareizu tīkla segmentāciju, vismazāko privilēģiju IAM lomām). Mākslīgais intelekts, kas ir apmācīts tūkstošiem šādu konfigurāciju, var ģenerēt bāzes līniju, ko inženieris pēc tam precizē. Tas paātrina sistēmu drošu iestatīšanu un samazina nepareizas konfigurācijas kļūdas, kas ir bieži sastopams mākoņa drošības incidentu avots.

Dažas organizācijas izmanto arī ģeneratīvo mākslīgo intelektu (AI), lai uzturētu drošu kodēšanas modeļu zināšanu bāzi. Ja izstrādātājs nav pārliecināts, kā droši ieviest noteiktu funkciju, viņš var vaicāt iekšējam AI, kas ir mācījies no uzņēmuma iepriekšējiem projektiem un drošības vadlīnijām. AI var atgriezt ieteicamo pieeju vai pat koda fragmentu, kas atbilst gan funkcionālajām prasībām, gan uzņēmuma drošības standartiem. Šo pieeju ir izmantojuši tādi rīki kā Secureframe Questionnaire Automation , kas iegūst atbildes no uzņēmuma politikām un iepriekšējiem risinājumiem, lai nodrošinātu konsekventas un precīzas atbildes (būtībā ģenerējot drošu dokumentāciju) ( Kā ģeneratīvo AI var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). Šī koncepcija nozīmē kodēšanu: AI, kas “atceras”, kā jūs iepriekš droši ieviesāt kaut ko, un palīdz jums to darīt vēlreiz.

Rezumējot, ģeneratīvais mākslīgais intelekts ietekmē programmatūras izstrādi, padarot drošas kodēšanas palīdzību pieejamāku . Nozares, kas izstrādā daudz pielāgotas programmatūras – tehnoloģiju, finanšu, aizsardzības u. c. –, gūs labumu no mākslīgā intelekta līdzpilotiem, kas ne tikai paātrina kodēšanu, bet arī darbojas kā pastāvīgi modrs drošības pārskatītājs. Pareizi pārvaldīti šie mākslīgā intelekta rīki var samazināt jaunu ievainojamību ieviešanu un palīdzēt izstrādes komandām ievērot labāko praksi, pat ja komandā katrā solī nav iesaistīts drošības eksperts. Rezultātā programmatūra ir izturīgāka pret uzbrukumiem jau no pirmās dienas.

Incidentu reaģēšanas atbalsts

Kad notiek kiberdrošības incidents — vai tā būtu ļaunprogrammatūras uzliesmojums, datu noplūde vai sistēmas darbības pārtraukums uzbrukuma dēļ —, laiks ir kritiski svarīgs. Ģeneratīvā mākslīgā intelekta (AI) izmantošana arvien biežāk tiek izmantota, lai atbalstītu incidentu reaģēšanas (IR) komandas ātrāk un ar vairāk informācijas ierobežot un novērst incidentus. Ideja ir tāda, ka mākslīgais intelekts var uzņemties daļu no izmeklēšanas un dokumentēšanas sloga incidenta laikā un pat ieteikt vai automatizēt dažas reaģēšanas darbības.

Viena no galvenajām mākslīgā intelekta lomām IR ir incidentu analīze un apkopošana reāllaikā . Incidenta laikā reaģētājiem var būt nepieciešamas atbildes uz tādiem jautājumiem kā "Kā uzbrucējs iekļuva?" , "Kuras sistēmas ir skartas?" un "Kādi dati varētu būt apdraudēti?" . Ģeneratīvais mākslīgais intelekts var analizēt žurnālus, brīdinājumus un kriminālistikas datus no skartajām sistēmām un ātri sniegt ieskatu. Piemēram, Microsoft Security Copilot ļauj incidentu reaģētājam ievadīt dažādus pierādījumus (failus, URL, notikumu žurnālus) un pieprasīt laika grafiku vai kopsavilkumu ( Microsoft Security Copilot ir jauns GPT-4 mākslīgā intelekta palīgs kiberdrošībai | The Verge ). Mākslīgais intelekts varētu atbildēt šādi: "Pārkāpums, visticamāk, sākās ar pikšķerēšanas e-pastu lietotājam JohnDoe plkst. 10:53 GMT, kurā bija ietverta ļaunprogrammatūra X. Pēc izpildes ļaunprogrammatūra izveidoja aizmugurējās durvis, kas divas dienas vēlāk tika izmantotas, lai pārvietotos uz finanšu serveri, kur tā apkopoja datus." Šī saskaņotā attēla iegūšana dažu minūšu, nevis stundu laikā ļauj komandai daudz ātrāk pieņemt pamatotus lēmumus (piemēram, kuras sistēmas izolēt).

Ģeneratīvais mākslīgais intelekts var arī ieteikt ierobežošanas un novēršanas darbības . Piemēram, ja galapunktu inficē izspiedējvīruss, mākslīgā intelekta rīks var ģenerēt skriptu vai instrukciju kopu, lai izolētu šo datoru, atspējotu noteiktus kontus un bloķētu zināmas ļaunprātīgas IP adreses ugunsmūrī — būtībā tā ir rokasgrāmatas izpilde. Palo Alto Networks norāda, ka ģeneratīvais mākslīgais intelekts spēj "ģenerēt atbilstošas ​​darbības vai skriptus, pamatojoties uz incidenta raksturu" , automatizējot sākotnējos reaģēšanas soļus ( Kas ir ģeneratīvais mākslīgais intelekts kiberdrošībā? — Palo Alto Networks ). Scenārijā, kad drošības komanda ir pārslogota (piemēram, plaši izplatīts uzbrukums simtiem ierīču), mākslīgais intelekts var pat tieši izpildīt dažas no šīm darbībām iepriekš apstiprinātos apstākļos, rīkojoties kā jaunākais reaģētājs, kas strādā nenogurstoši. Piemēram, mākslīgā intelekta aģents varētu automātiski atiestatīt akreditācijas datus, kurus tas uzskata par apdraudētiem, vai karantīnā ievietot resursdatorus, kas uzrāda ļaunprātīgu darbību, kas atbilst incidenta profilam.

Incidentu reaģēšanas laikā komunikācija ir ļoti svarīga – gan komandas ietvaros, gan ar ieinteresētajām personām. Ģeneratīvais mākslīgais intelekts var palīdzēt, acumirklī sagatavojot incidentu atjauninājumu ziņojumus vai kopsavilkumus . Tā vietā, lai inženieris pārtrauktu problēmu novēršanu, lai uzrakstītu e-pasta atjauninājumu, viņš varētu jautāt mākslīgajam intelektam: "Apkopojiet, kas līdz šim ir noticis šajā incidentā, lai informētu vadību." Mākslīgais intelekts, kas ir ieguvis incidenta datus, var sniegt kodolīgu kopsavilkumu: "Līdz plkst. 15:00 uzbrucēji ir piekļuvuši 2 lietotāju kontiem un 5 serveriem. Skartie dati ietver klientu ierakstus datubāzē X. Ierobežošanas pasākumi: apdraudēto kontu VPN piekļuve ir atsaukta, un serveri ir izolēti. Nākamie soļi: jebkādu noturības mehānismu skenēšana." Pēc tam reaģētājs var ātri to pārbaudīt vai pielāgot un nosūtīt, nodrošinot, ka ieinteresētās personas tiek informētas par precīzu un aktuālu informāciju.

Pēc tam, kad putekļi nosēžas, parasti ir jāsagatavo detalizēts incidenta ziņojums un jāapkopo gūtās atziņas. Šī ir vēl viena joma, kurā izceļas mākslīgā intelekta atbalsts. Tas var pārskatīt visus incidenta datus un ģenerēt incidenta ziņojumu, kurā ietverts pamatcēlonis, hronoloģija, ietekme un ieteikumi. Piemēram, IBM integrē ģeneratīvo mākslīgo intelektu, lai, nospiežot pogu, "vienkāršus drošības gadījumu un incidentu kopsavilkumus, kurus var kopīgot ar ieinteresētajām personām" Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā? 10 reāli piemēri ). Racionalizējot ziņošanu pēc rīcības, organizācijas var ātrāk ieviest uzlabojumus un arī iegūt labāku dokumentāciju atbilstības nolūkos.

Viens no inovatīviem, uz nākotni vērstiem pielietojumiem ir mākslīgā intelekta vadītas incidentu simulācijas . Līdzīgi kā varētu vadīt ugunsgrēka trauksmes mācības, daži uzņēmumi izmanto ģeneratīvo mākslīgo intelektu, lai izstrādātu “kas būtu, ja” incidentu scenārijus. Mākslīgais intelekts varētu simulēt, kā izspiedējvīruss varētu izplatīties, ņemot vērā tīkla izkārtojumu, vai kā iekšējais darbinieks varētu iegūt datus, un pēc tam novērtēt pašreizējo reaģēšanas plānu efektivitāti. Tas palīdz komandām sagatavot un pilnveidot rīcības plānus, pirms notiek reāls incidents. Tas ir kā pastāvīgi uzlabots incidentu reaģēšanas konsultants, kas pastāvīgi pārbauda jūsu gatavību.

Augstas likmes nozarēs, piemēram, finanšu vai veselības aprūpes jomā, kur dīkstāve vai datu zudums incidentu dēļ ir īpaši dārgs, šīs mākslīgā intelekta vadītās informācijas atklāšanas (IR) iespējas ir ļoti pievilcīgas. Slimnīca, kurā notiek kiberincidents, nevar atļauties ilgstošus sistēmas darbības pārtraukumus – mākslīgais intelekts, kas ātri palīdz ierobežošanā, varētu burtiski glābt dzīvību. Līdzīgi finanšu iestāde var izmantot mākslīgo intelektu, lai veiktu sākotnējo iespējamās krāpšanas ielaušanās triāžu plkst. 3:00 naktī, lai līdz brīdim, kad dežūrējošie darbinieki ir tiešsaistē, liels sagatavošanās darbs (skarto kontu atvienošana, darījumu bloķēšana utt.) jau būtu paveikts. Papildinot incidentu reaģēšanas komandas ar ģeneratīvu mākslīgo intelektu , organizācijas var ievērojami samazināt reakcijas laiku un uzlabot to apstrādes rūpību, galu galā mazinot kiberincidentu radītos zaudējumus.

Uzvedības analīze un anomāliju noteikšana

Daudzus kiberuzbrukumus var atvairīt, pamanot novirzes no “normālas” uzvedības — neatkarīgi no tā, vai tas ir lietotāja konts, kas lejupielādē neparastu datu apjomu, vai tīkla ierīce, kas pēkšņi sazinās ar nepazīstamu resursdatoru. Ģeneratīvais mākslīgais intelekts piedāvā uzlabotas metodes uzvedības analīzei un anomāliju noteikšanai , apgūstot lietotāju un sistēmu ierastos modeļus un pēc tam brīdinot, ja kaut kas izskatās nepareizi.

Tradicionālā anomāliju noteikšana bieži izmanto statistiskās robežvērtības vai vienkāršu mašīnmācīšanos, pamatojoties uz konkrētiem rādītājiem (CPU noslodzes pieaugums, pieteikšanās neparastās stundās utt.). Ģeneratīvais mākslīgais intelekts var to attīstīt vēl tālāk, izveidojot niansētākus uzvedības profilus. Piemēram, mākslīgā intelekta modelis laika gaitā var apkopot darbinieka pieteikšanās, failu piekļuves modeļus un e-pasta paradumus un veidot daudzdimensionālu izpratni par šī lietotāja “normalitāti”. Ja šis konts vēlāk dara kaut ko krasi ārpus savas normas (piemēram, piesakās no jaunas valsts un pusnaktī piekļūst HR failu krātuvei), mākslīgais intelekts atklāj novirzi ne tikai vienā rādītājā, bet gan visā uzvedības modelī, kas neatbilst lietotāja profilam. Tehniskā ziņā ģeneratīvie modeļi (piemēram, automātiskie kodētāji vai secību modeļi) var modelēt, kā izskatās “normalitāte”, un pēc tam ģenerēt paredzamo uzvedības diapazonu. Kad realitāte atrodas ārpus šī diapazona, tā tiek atzīmēta kā anomālija ( Kas ir ģeneratīvais mākslīgais intelekts kiberdrošībā? - Palo Alto Networks ).

Viens praktisks ieviešanas veids ir tīkla datplūsmas uzraudzība . Saskaņā ar 2024. gada aptauju 54 % ASV organizāciju minēja tīkla datplūsmas uzraudzību kā galveno mākslīgā intelekta (AI) lietošanas gadījumu kiberdrošībā ( Ziemeļamerika: galvenie AI lietošanas gadījumi kiberdrošībā visā pasaulē 2024. gadā ). Ģeneratīvais mākslīgais intelekts var apgūt uzņēmuma tīkla parastos komunikācijas modeļus — kuri serveri parasti sazinās savā starpā, kāds datu apjoms pārvietojas darba laikā, salīdzinot ar nakts laikā utt. Ja uzbrucējs sāk izgūt datus no servera, pat lēnām, lai izvairītos no atklāšanas, uz mākslīgā intelekta balstīta sistēma var pamanīt, ka “A serveris nekad nesūta 500 MB datu plkst. 2:00 uz ārēju IP adresi” un izdot brīdinājumu. Tā kā mākslīgais intelekts neizmanto tikai statiskus noteikumus, bet gan mainīgu tīkla uzvedības modeli, tas var pamanīt smalkas anomālijas, kuras statiskie noteikumi (piemēram, “brīdināt, ja dati > X MB”) varētu nepamanīt vai kļūdaini atzīmēt. Šī adaptīvā daba padara AI vadītu anomāliju noteikšanu spēcīgu tādās vidēs kā banku darījumu tīkli, mākoņinfrastruktūra vai lietu interneta (IoT) ierīču parki, kur fiksētu noteikumu definēšana normālai un neparastai situācijai ir ārkārtīgi sarežģīta.

Ģeneratīvā mākslīgā intelekta (MI) tehnoloģija palīdz arī lietotāju uzvedības analīzē (UBA) , kas ir būtiska iekšējo draudu vai apdraudētu kontu atklāšanai. Ģenerējot katra lietotāja vai entītijas bāzes līniju, MI var atklāt tādas lietas kā akreditācijas datu ļaunprātīga izmantošana. Piemēram, ja Bobs no grāmatvedības pēkšņi sāk vaicāt klientu datubāzē (ko viņš nekad iepriekš nedarīja), MI modelis Boba uzvedībai atzīmēs to kā neparastu. Tā var nebūt ļaunprogrammatūra — tas varētu būt gadījums, kad Boba akreditācijas dati tiek nozagti un tos izmanto uzbrucējs, vai arī Bobs meklē informāciju tur, kur viņam nevajadzētu. Jebkurā gadījumā drošības komanda saņem brīdinājumu, lai veiktu izmeklēšanu. Šādas MI vadītas UBA sistēmas pastāv dažādos drošības produktos, un ģeneratīvās modelēšanas metodes palielina to precizitāti un samazina viltus trauksmes, ņemot vērā kontekstu (varbūt Bobs strādā pie īpaša projekta utt., ko MI dažreiz var secināt no citiem datiem).

Identitātes un piekļuves pārvaldības jomā dziļviltojumu noteikšana kļūst arvien pieprasītāka – ģeneratīvais mākslīgais intelekts (MI) var radīt sintētiskas balsis un video, kas apmāna biometrisko drošību. Interesanti, ka ģeneratīvais MI var arī palīdzēt atklāt šos dziļviltojumus, analizējot smalkus audio vai video artefaktus, kurus cilvēkiem ir grūti pamanīt. Mēs redzējām piemēru ar Accenture, kas izmantoja ģeneratīvo MI, lai simulētu neskaitāmas sejas izteiksmes un apstākļus, lai apmācītu savas biometriskās sistēmas atšķirt reālus lietotājus no MI ģenerētiem dziļviltojumiem. Piecu gadu laikā šī pieeja palīdzēja Accenture likvidēt paroles 90% savu sistēmu (pārejot uz biometriju un citiem faktoriem) un samazināt uzbrukumus par 60% ( 6 ģeneratīvā MI lietošanas gadījumi kiberdrošībā [+ piemēri] ). Būtībā viņi izmantoja ģeneratīvo MI, lai stiprinātu biometrisko autentifikāciju, padarot to noturīgu pret ģeneratīvajiem uzbrukumiem (lielisks MI cīņas ar MI piemērs). Šāda veida uzvedības modelēšana – šajā gadījumā atšķirības atpazīšana starp dzīvu cilvēka seju un MI sintezētu seju – ir ļoti svarīga, jo autentifikācijā mēs arvien vairāk paļaujamies uz MI.

Ģeneratīvā mākslīgā intelekta nodrošinātā anomāliju noteikšana ir piemērojama dažādās nozarēs: veselības aprūpē, uzraugot medicīnas ierīču darbību, meklējot uzlaušanas pazīmes; finanšu jomā, vērojot tirdzniecības sistēmas, meklējot neregulārus modeļus, kas varētu liecināt par krāpšanu vai algoritmiskām manipulācijām; enerģētikas/komunālo pakalpojumu jomā, novērojot vadības sistēmu signālus, meklējot ielaušanās pazīmes. plašuma (visu uzvedības aspektu aplūkošana) un dziļuma (sarežģītu modeļu izpratne) padara to par spēcīgu instrumentu kiberincidenta pazīmju atpazīšanai. Tā kā draudi kļūst arvien nemanāmāki, slēpjoties starp parastajām darbībām, šī spēja precīzi raksturot “normālu” stāvokli un ziņot, ja kaut kas novirzās no normas, kļūst vitāli svarīga. Tādējādi ģeneratīvais mākslīgais intelekts kalpo kā nenogurstošs sargs, kas vienmēr mācās un atjaunina savu normalitātes definīciju, lai neatpaliktu no izmaiņām vidē, un brīdina drošības komandas par anomālijām, kuras ir jāpārbauda rūpīgāk.

Ģeneratīvā mākslīgā intelekta iespējas un ieguvumi kiberdrošībā

Ģeneratīvā mākslīgā intelekta (MI) izmantošana kiberdrošībā sniedz virkni iespēju un ieguvumu organizācijām, kas vēlas izmantot šos rīkus. Tālāk mēs apkopojam galvenās priekšrocības, kas padara ģeneratīvo MI par pārliecinošu papildinājumu kiberdrošības programmām:

  • Ātrāka draudu noteikšana un reaģēšana: Ģeneratīvās mākslīgā intelekta sistēmas var analizēt milzīgu datu apjomu reāllaikā un atpazīt draudus daudz ātrāk nekā manuāla cilvēku veikta analīze. Šī ātruma priekšrocība nozīmē uzbrukumu agrāku atklāšanu un ātrāku incidentu ierobežošanu. Praksē mākslīgā intelekta vadīta drošības uzraudzība var atklāt draudus, kuru korelēšanai cilvēkiem būtu nepieciešams daudz ilgāks laiks. Ātri reaģējot uz incidentiem (vai pat autonomi veicot sākotnējās atbildes), organizācijas var ievērojami samazināt uzbrucēju uzturēšanās laiku savos tīklos, samazinot kaitējumu.

  • Uzlabota precizitāte un apdraudējumu pārklājums: Tā kā ģeneratīvie modeļi nepārtraukti mācās no jauniem datiem, tie var pielāgoties mainīgajiem apdraudējumiem un pamanīt smalkākas ļaunprātīgas darbības pazīmes. Tas uzlabo noteikšanas precizitāti (mazāk viltus negatīvu un viltus pozitīvu rezultātu) salīdzinājumā ar statiskiem noteikumiem. Piemēram, mākslīgais intelekts (MI), kas ir apguvis pikšķerēšanas e-pasta vai ļaunprogrammatūras darbības pazīmes, var identificēt variantus, kas nekad iepriekš nav redzēti. Rezultātā tiek iegūts plašāks apdraudējumu veidu pārklājums, tostarp jauni uzbrukumi, kas stiprina kopējo drošības stāvokli. Drošības komandas arī iegūst detalizētu ieskatu no MI analīzes (piemēram, ļaunprogrammatūras darbības skaidrojumus), nodrošinot precīzāku un mērķtiecīgāku aizsardzību ( Kas ir ģeneratīvais MI kiberdrošībā? - Palo Alto Networks ).

  • Atkārtotu uzdevumu automatizācija: Ģeneratīvais mākslīgais intelekts (MI) izceļas ar rutīnas, darbietilpīgu drošības uzdevumu automatizāciju — sākot ar žurnālu pārskatīšanu un pārskatu apkopošanu līdz incidentu reaģēšanas skriptu rakstīšanai. Šī automatizācija samazina cilvēku analītiķu slodzi , atbrīvojot viņus koncentrēties uz augsta līmeņa stratēģiju un sarežģītu lēmumu pieņemšanu ( Kas ir Ģeneratīvais MI kiberdrošībā? — Palo Alto Networks ). Ikdienišķus, bet svarīgus uzdevumus, piemēram, ievainojamību skenēšanu, konfigurācijas auditu, lietotāju aktivitāšu analīzi un atbilstības pārskatu sniegšanu, MI var veikt (vai vismaz sākotnēji izstrādāt). Veicot šos uzdevumus datora ātrumā, MI ne tikai uzlabo efektivitāti, bet arī samazina cilvēciskās kļūdas (būtisks faktors pārkāpumu gadījumos).

  • Proaktīva aizsardzība un simulācija: Ģeneratīvais mākslīgais intelekts ļauj organizācijām pāriet no reaktīvas uz proaktīvu drošību. Izmantojot tādas metodes kā uzbrukumu simulācija, sintētisko datu ģenerēšana un uz scenārijiem balstīta apmācība, aizstāvji var paredzēt un sagatavoties draudiem, pirms tie materializējas reālajā pasaulē. Drošības komandas var simulēt kiberuzbrukumus (pikšķerēšanas kampaņas, ļaunprogrammatūras uzliesmojumus, DDoS utt.) drošās vidēs, lai pārbaudītu savas reakcijas un novērstu jebkādas vājās vietas. Šī nepārtrauktā apmācība, ko bieži vien nav iespējams pilnībā veikt tikai ar cilvēka spēku, uztur aizsardzību asu un atjauninātu. Tas ir līdzīgi kā kiberdrošības "ugunsgrēka mācības" – mākslīgais intelekts var radīt daudzus hipotētiskus draudus jūsu aizsardzībai, lai jūs varētu praktizēties un uzlaboties.

  • Cilvēka zināšanu papildināšana (mākslīgais intelekts kā spēka reizinātājs): ģeneratīvais mākslīgais intelekts darbojas kā nenogurstošs jaunākais analītiķis, padomdevējs un asistents vienā. Tas var sniegt mazāk pieredzējušiem komandas locekļiem norādījumus un ieteikumus, ko parasti sagaida no pieredzējušiem ekspertiem, efektīvi demokratizējot zināšanas visā komandā ( 6 ģeneratīvā mākslīgā intelekta lietošanas gadījumi kiberdrošībā [+ piemēri] ). Tas ir īpaši vērtīgi, ņemot vērā talantu trūkumu kiberdrošībā – mākslīgais intelekts palīdz mazākām komandām paveikt vairāk ar mazāk resursiem. Savukārt pieredzējuši analītiķi gūst labumu no tā, ka mākslīgais intelekts veic sarežģītu darbu un atklāj neacīmredzamas atziņas, kuras viņi pēc tam var apstiprināt un izmantot. Kopējais rezultāts ir daudz produktīvāka un spējīgāka drošības komanda, mākslīgajam intelektam pastiprinot katra cilvēka locekļa ietekmi ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā ).

  • Uzlabots lēmumu atbalsts un pārskatu sniegšana: Pārveidojot tehniskos datus dabiskās valodas ieskatos, ģeneratīvais mākslīgais intelekts uzlabo komunikāciju un lēmumu pieņemšanu. Drošības vadītāji iegūst skaidrāku ieskatu problēmās, izmantojot mākslīgā intelekta ģenerētus kopsavilkumus, un var pieņemt pamatotus stratēģiskus lēmumus, neanalizējot neapstrādātus datus. Tāpat starpfunkcionālā komunikācija (ar vadītājiem, atbilstības amatpersonām utt.) tiek uzlabota, ja mākslīgais intelekts sagatavo viegli saprotamus ziņojumus par drošības stāvokli un incidentiem ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). Tas ne tikai veido pārliecību un saskaņotību drošības jautājumos vadības līmenī, bet arī palīdz pamatot ieguldījumus un izmaiņas, skaidri formulējot riskus un mākslīgā intelekta atklātās nepilnības.

Kopā šie ieguvumi nozīmē, ka organizācijas, kas kiberdrošībā izmanto ģeneratīvo mākslīgo intelektu (MI), var sasniegt spēcīgāku drošības stāvokli ar potenciāli zemākām ekspluatācijas izmaksām. Tās var reaģēt uz draudiem, kas iepriekš bija pārāk lieli, segt nepilnības, kas netika uzraudzītas, un nepārtraukti uzlaboties, izmantojot MI vadītas atgriezeniskās saites cilpas. Galu galā ģeneratīvais MI piedāvā iespēju apsteigt pretiniekus, saskaņojot ātrumu, mērogu un sarežģītību ar tikpat sarežģītu aizsardzību. Kā atklāts vienā aptaujā, vairāk nekā puse uzņēmumu un kiberdrošības līderu paredz ātrāku draudu atklāšanu un lielāku precizitāti, izmantojot ģeneratīvo MI ( [PDF] Globālā kiberdrošības perspektīva 2025. gadam | Pasaules Ekonomikas forums ) ( Ģeneratīvais MI kiberdrošībā: visaptverošs LLM pārskats... ), kas liecina par optimismu saistībā ar šo tehnoloģiju priekšrocībām.

Ģeneratīvā mākslīgā intelekta izmantošanas riski un izaicinājumi kiberdrošībā

Lai gan iespējas ir ievērojamas, ir ļoti svarīgi pieiet ģeneratīvajam mākslīgajam intelektam kiberdrošībā, apzinoties ar riskus un izaicinājumus . Akla uzticēšanās mākslīgajam intelektam vai tā ļaunprātīga izmantošana var radīt jaunas ievainojamības. Tālāk mēs izklāstām galvenās bažas un trūkumus, kā arī katra kontekstu:

  • Kibernoziedznieku naidīga izmantošana: tās pašas ģeneratīvās spējas, kas palīdz aizstāvjiem, var dot iespējas uzbrucējiem. Draudu izpildītāji jau izmanto ģeneratīvo mākslīgo intelektu (MI), lai izveidotu pārliecinošākus pikšķerēšanas e-pastus, viltotus tēlus un dziļviltotus video sociālajai inženierijai, izstrādātu polimorfu ļaunprogrammatūru, kas pastāvīgi mainās, lai izvairītos no atklāšanas, un pat automatizētu uzlaušanas aspektus ( Kas ir ģeneratīvais MI kiberdrošībā? - Palo Alto Networks ). Gandrīz puse (46%) kiberdrošības līderu ir noraizējušies, ka ģeneratīvais MI novedīs pie sarežģītākiem naidīgiem uzbrukumiem ( Ģeneratīvā MI drošība: tendences, draudi un mazināšanas stratēģijas ). Šī "MI bruņošanās sacensība" nozīmē, ka, aizstāvjiem ieviešot MI, uzbrucēji nebūs tālu atpalikuši (patiesībā viņi dažās jomās var būt priekšā, izmantojot neregulētus MI rīkus). Organizācijām ir jābūt gatavām MI uzlabotiem draudiem, kas ir biežāki, sarežģītāki un grūtāk izsekojami.

  • Mākslīgā intelekta halucinācijas un neprecizitāte: ticamus, bet nepareizus vai maldinošus rezultātus – šī parādība ir pazīstama kā halucinācijas. Drošības kontekstā mākslīgais intelekts var analizēt incidentu un kļūdaini secināt, ka cēlonis ir noteikta ievainojamība, vai arī ģenerēt kļūdainu labošanas skriptu, kas nespēj ierobežot uzbrukumu. Šīs kļūdas var būt bīstamas, ja tās uztver burtiski. Kā brīdina NTT Data, “ģeneratīvais mākslīgais intelekts var ticami izvadīt nepatiesu saturu, un šo parādību sauc par halucinācijām… pašlaik ir grūti tās pilnībā novērst” ( Ģeneratīvā mākslīgā intelekta un pretpasākumu drošības riski un tā ietekme uz kiberdrošību | NTT DATA Group ). Pārmērīga paļaušanās uz mākslīgo intelektu bez verifikācijas var novest pie nepareizi novirzītiem centieniem vai maldīgas drošības sajūtas. Piemēram, mākslīgais intelekts var maldīgi atzīmēt kritisku sistēmu kā drošu, ja tā nav, vai gluži pretēji, izraisīt paniku, “atklājot” pārkāpumu, kas nekad nav noticis. Lai mazinātu šo risku, ir svarīgi rūpīgi validēt mākslīgā intelekta rezultātus un iesaistīt cilvēkus kritisku lēmumu pieņemšanā.

  • Viltus pozitīvi un negatīvi rezultāti: Saistībā ar halucinācijām, ja mākslīgā intelekta modelis ir slikti apmācīts vai konfigurēts, tas var pārāk daudz ziņot par labdabīgu darbību kā ļaunprātīgu (viltus pozitīvi rezultāti) vai, vēl ļaunāk, nepamanīt reālus draudus (viltus negatīvi rezultāti) ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā ). Pārmērīgi viltus trauksmes signāli var pārslogot drošības komandas un izraisīt trauksmju nogurumu (atceļot tieši to efektivitātes pieaugumu, ko mākslīgais intelekts solīja), savukārt nepamanītie atklājumi atstāj organizāciju neaizsargātu. Ģeneratīvo modeļu pielāgošana pareizajam līdzsvaram ir izaicinājums. Katra vide ir unikāla, un mākslīgais intelekts var ne uzreiz darboties optimāli pēc noklusējuma. Nepārtraukta mācīšanās ir arī divvirzienu zobens – ja mākslīgais intelekts mācās no sagrozītas atsauksmes vai no mainīgas vides, tā precizitāte var svārstīties. Drošības komandām ir jāuzrauga mākslīgā intelekta veiktspēja un jāpielāgo sliekšņi vai jāsniedz modeļiem korektīva atgriezeniskā saite. Augstas likmes kontekstos (piemēram, kritiskās infrastruktūras ielaušanās atklāšanā) var būt prātīgi kādu laiku palaist mākslīgā intelekta ieteikumus paralēli esošajām sistēmām, lai nodrošinātu, ka tie sakrīt un papildina, nevis konfliktē.

  • Datu privātums un noplūde: Ģeneratīvās mākslīgā intelekta sistēmām apmācībai un darbībai bieži vien ir nepieciešams liels datu apjoms. Ja šie modeļi ir balstīti mākonī vai nav pareizi izolēti, pastāv risks, ka var noplūst sensitīva informācija. Lietotāji var netīšām ievadīt patentētus datus vai personas datus mākslīgā intelekta pakalpojumā (piemēram, lūgt ChatGPT apkopot konfidenciālu incidenta ziņojumu), un šie dati varētu kļūt par daļu no modeļa zināšanām. Patiešām, nesen veiktā pētījumā tika atklāts, ka 55% no ievades datiem ģeneratīvajos mākslīgā intelekta rīkos saturēja sensitīvu vai personu identificējošu informāciju , radot nopietnas bažas par datu noplūdi ( Ģeneratīvā mākslīgā intelekta drošība: tendences, draudi un mazināšanas stratēģijas ). Turklāt, ja mākslīgais intelekts ir apmācīts darbā ar iekšējiem datiem un tas tiek vaicāts noteiktos veidos, tas var izvadīt daļu no šiem sensitīvajiem datiem kādam citam. Organizācijām ir jāievieš stingra datu apstrādes politika (piemēram, sensitīvam materiālam jāizmanto lokālas vai privātas mākslīgā intelekta instances) un jāizglīto darbinieki par slepenas informācijas neielīmēšanu publiskos mākslīgā intelekta rīkos. Tiek ņemti vērā arī privātuma noteikumi (VDAR utt.) – personas datu izmantošana mākslīgā intelekta apmācībai bez pienācīgas piekrišanas vai aizsardzības varētu būt pretrunā ar likumiem.

  • Modeļa drošība un manipulācijas: Ģeneratīvā mākslīgā intelekta modeļi paši var kļūt par mērķiem. Uzbrucēji var mēģināt sabojāt modeli , sniedzot tam ļaunprātīgus vai maldinošus datus apmācības vai pārapmācības fāzē, lai mākslīgais intelekts apgūtu nepareizus modeļus ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā ). Piemēram, uzbrucējs var smalki sabojāt apdraudējuma informācijas datus, lai mākslīgais intelekts neatpazītu uzbrucēja paša ļaunprogrammatūru kā ļaunprātīgu. Cita taktika ir tūlītēja injekcija vai izvades manipulācija , kur uzbrucējs atrod veidu, kā sniegt mākslīgajam intelektam ievades datus, kas liek tam rīkoties neparedzētā veidā – iespējams, ignorēt tā drošības barjeras vai atklāt informāciju, kas tam nevajadzētu notikt (piemēram, iekšējās uzvednes vai dati). Turklāt pastāv modeļa apiešanas : uzbrucēji izstrādā ievades datus, kas īpaši paredzēti, lai apmānītu mākslīgo intelektu. Mēs to redzam naidīgos piemēros – nedaudz sagrozīti dati, ko cilvēks uztver kā normālus, bet mākslīgais intelekts tos nepareizi klasificē. Ieviešot šos rīkus, mākslīgā intelekta piegādes ķēdes drošības nodrošināšana (datu integritāte, modeļa piekļuves kontrole, konkurējošas robustuma testēšana) ir jauna, bet nepieciešama kiberdrošības sastāvdaļa ( Kas ir ģeneratīvais mākslīgais intelekts kiberdrošībā? - Palo Alto Networks ).

  • Pārmērīga paļaušanās un prasmju erozija: Pastāv mazāks risks, ka organizācijas varētu kļūt pārāk atkarīgas no mākslīgā intelekta (MI) un ļaut cilvēku prasmēm novecot. Ja jaunākie analītiķi sāks akli uzticēties MI rezultātiem, viņi, iespējams, neattīstīs kritisko domāšanu un intuīciju, kas nepieciešama, ja MI nav pieejams vai nedarbojas pareizi. Scenārijs, no kura jāizvairās, ir drošības komanda, kurai ir lieliski rīki, bet nav ne jausmas, kā darboties, ja šie rīki nedarbojas (līdzīgi kā pilotiem, kuri pārāk paļaujas uz autopilotu). Regulāri treniņi bez MI palīdzības un domāšanas veida veicināšana, ka MI ir palīgs, nevis nekļūdīgs orākuls, ir svarīgi, lai cilvēki-analītiķi būtu asi. Cilvēkiem ir jāpaliek galīgajiem lēmumu pieņēmējiem, īpaši attiecībā uz lēmumiem ar lielu ietekmi.

  • Ētiskās un atbilstības problēmas: Mākslīgā intelekta izmantošana kiberdrošībā rada ētikas jautājumus un var izraisīt atbilstības problēmas normatīvajiem aktiem. Piemēram, ja mākslīgā intelekta sistēma anomālijas dēļ kļūdaini vaino darbinieku kā ļaunprātīgu iekšējo personu, tas var netaisnīgi kaitēt šīs personas reputācijai vai karjerai. Mākslīgā intelekta pieņemtie lēmumi var būt necaurspīdīgi (“melnās kastes” problēma), apgrūtinot auditoriem vai regulatoriem izskaidrot, kāpēc tika veiktas noteiktas darbības. Tā kā mākslīgā intelekta ģenerēts saturs kļūst arvien izplatītāks, ir svarīgi nodrošināt pārredzamību un saglabāt atbildību. Regulatori sāk rūpīgi pārbaudīt mākslīgo intelektu – piemēram, ES Mākslīgā intelekta likums noteiks prasības “augsta riska” mākslīgā intelekta sistēmām, un kiberdrošības mākslīgais intelekts varētu ietilpt šajā kategorijā. Uzņēmumiem būs jāpārzina šie noteikumi un, iespējams, jāievēro tādi standarti kā NIST mākslīgā intelekta riska pārvaldības sistēma, lai atbildīgi izmantotu ģeneratīvo mākslīgo intelektu ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā? 10 reāli piemēri ). Atbilstība attiecas arī uz licencēšanu: atvērtā pirmkoda vai trešo pušu modeļu izmantošanai var būt noteikumi, kas ierobežo noteiktus lietošanas veidus vai pieprasa kopīgot uzlabojumus.

Rezumējot, ģeneratīvais mākslīgais intelekts nav brīnumlīdzeklis — ja tas netiek ieviests rūpīgi, tas var radīt jaunas vājības, pat risinot citas. 2024. gada Pasaules Ekonomikas foruma pētījumā tika uzsvērts, ka ~47 % organizāciju kā galveno problēmu min uzbrucēju sasniegumus ģeneratīvā mākslīgā intelekta jomā, padarot to par “visbažīgāko ģeneratīvā mākslīgā intelekta ietekmi” kiberdrošībā ( [PDF] Globālā kiberdrošības perspektīva 2025. gadam | Pasaules Ekonomikas forums ) ( Ģeneratīvais mākslīgais intelekts kiberdrošībā: visaptverošs LLM pārskats... ). Tāpēc organizācijām ir jāpieņem līdzsvarota pieeja: jāizmanto mākslīgā intelekta priekšrocības, vienlaikus stingri pārvaldot šos riskus, izmantojot pārvaldību, testēšanu un cilvēku uzraudzību. Tālāk mēs apspriedīsim, kā praktiski panākt šo līdzsvaru.

Nākotnes perspektīvas: Ģeneratīvā mākslīgā intelekta mainīgā loma kiberdrošībā

Raugoties nākotnē, ģeneratīvais mākslīgais intelekts (MI) ir gatavs kļūt par neatņemamu kiberdrošības stratēģijas sastāvdaļu un vienlaikus par rīku, ko kiberuzbrucēji turpinās izmantot. Kaķa un peles dinamika paātrināsies, MI atrodoties abās pusēs. Šeit ir sniegtas dažas uz nākotni vērstas atziņas par to, kā ģeneratīvais MI varētu ietekmēt kiberdrošību turpmākajos gados:

  • Ar mākslīgo intelektu papildināta kiberaizsardzība kļūst par standartu: Līdz 2025. gadam un turpmāk mēs varam sagaidīt, ka lielākā daļa vidējo un lielo organizāciju savās drošības operācijās būs iekļāvušas mākslīgā intelekta vadītus rīkus. Tāpat kā pretvīrusu programmas un ugunsmūri mūsdienās ir standarts, mākslīgā intelekta palīgprogrammas un anomāliju noteikšanas sistēmas var kļūt par drošības arhitektūru pamatkomponentiem. Šie rīki, visticamāk, kļūs specializētāki – piemēram, atšķirīgi mākslīgā intelekta modeļi, kas precīzi pielāgoti mākoņa drošībai, lietu interneta ierīču uzraudzībai, lietojumprogrammu koda drošībai utt., visi darbojoties saskaņoti. Kā norādīts vienā prognozē, "2025. gadā ģeneratīvais mākslīgais intelekts būs neatņemama kiberdrošības sastāvdaļa, ļaujot organizācijām proaktīvi aizsargāties pret sarežģītiem un mainīgiem draudiem" ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā ). Mākslīgais intelekts uzlabos draudu noteikšanu reāllaikā, automatizēs daudzas reaģēšanas darbības un palīdzēs drošības komandām pārvaldīt ievērojami lielākus datu apjomus, nekā tās varētu manuāli.

  • Nepārtraukta mācīšanās un adaptācija: Nākotnes ģeneratīvās mākslīgā intelekta sistēmas kibertelpā labāk spēs mācīties no jauniem incidentiem un apdraudējumu informācijas, atjauninot savu zināšanu bāzi gandrīz reāllaikā. Tas varētu novest pie patiesi adaptīvas aizsardzības — iedomājieties mākslīgo intelektu, kas no rīta uzzina par jaunu pikšķerēšanas kampaņu, kas skar citu uzņēmumu, un pēcpusdienā jau ir pielāgojis jūsu uzņēmuma e-pasta filtrus. Mākonī balstīti mākslīgā intelekta drošības pakalpojumi varētu veicināt šāda veida kolektīvu mācīšanos, kur anonimizēta informācija no vienas organizācijas sniedz labumu visiem abonentiem (līdzīgi kā apdraudējumu informācijas apmaiņa, bet automatizēta). Tomēr tas prasīs rūpīgu rīcību, lai izvairītos no sensitīvas informācijas koplietošanas un neļautu uzbrucējiem ievadīt sliktus datus koplietotajos modeļos.

  • Mākslīgā intelekta un kiberdrošības talantu konverģence: Kiberdrošības speciālistu prasmju kopums attīstīsies, iekļaujot prasmes mākslīgajā intelektā un datu zinātnē. Tāpat kā šodienas analītiķi apgūst vaicājumu valodas un skriptēšanu, rītdienas analītiķi varētu regulāri precizēt mākslīgā intelekta modeļus vai rakstīt “rokasgrāmatas”, ko mākslīgais intelekts var izpildīt. Mēs varam redzēt jaunas lomas, piemēram, “mākslīgā intelekta drošības treneris” vai “kiberdrošības mākslīgā intelekta inženieris” – cilvēkus, kas specializējas mākslīgā intelekta rīku pielāgošanā organizācijas vajadzībām, to veiktspējas validēšanā un drošas darbības nodrošināšanā. No otras puses, kiberdrošības apsvērumi arvien vairāk ietekmēs mākslīgā intelekta izstrādi. Mākslīgā intelekta sistēmas tiks veidotas ar drošības funkcijām jau no paša sākuma (droša arhitektūra, manipulāciju atklāšana, audita žurnāli mākslīgā intelekta lēmumiem utt.), un uzticama mākslīgā intelekta (taisnīgi, izskaidrojami, stabili un droši) vadīs to ieviešanu drošībai kritiskos kontekstos.

  • Sarežģītāki uzbrukumi, ko nodrošina mākslīgais intelekts: Diemžēl arī apdraudējumu ainava attīstīsies līdz ar mākslīgo intelektu. Mēs paredzam biežāku mākslīgā intelekta izmantošanu, lai atklātu nulles dienas ievainojamības, izstrādātu ļoti mērķtiecīgu pikšķerēšanu (piemēram, mākslīgais intelekts nokopētu sociālos medijus, lai izveidotu perfekti pielāgotu ēsmu) un ģenerētu pārliecinošas dziļviltotas balsis vai video, lai apietu biometrisko autentifikāciju vai veiktu krāpšanu. Var parādīties automatizēti hakeru aģenti, kas var patstāvīgi veikt daudzpakāpju uzbrukumus (izlūkošana, izmantošana, sānu pārvietošanās utt.) ar minimālu cilvēka uzraudzību. Tas spiedīs aizstāvjus paļauties arī uz mākslīgo intelektu – būtībā automatizācija pret automatizāciju . Daži uzbrukumi var notikt ar mašīnas ātrumu, piemēram, mākslīgā intelekta roboti izmēģina tūkstoš pikšķerēšanas e-pasta permutāciju, lai redzētu, kura no tām tiek cauri filtriem. Kiberaizsardzībai būs jādarbojas ar līdzīgu ātrumu un elastību, lai neatpaliktu ( Kas ir ģeneratīvais mākslīgais intelekts kiberdrošībā? - Palo Alto Networks ).

  • Regulējums un ētiska mākslīgā intelekta izmantošana drošībā: Tā kā mākslīgais intelekts (MI) kļūst dziļi integrēts kiberdrošības funkcijās, tiks veikta lielāka pārbaude un, iespējams, arī regulējums, lai nodrošinātu, ka šīs MI sistēmas tiek izmantotas atbildīgi. Mēs varam sagaidīt MI drošības jomā paredzētus ietvarus un standartus. Valdības varētu noteikt pārredzamības vadlīnijas, piemēram, pieprasot, lai nozīmīgus drošības lēmumus (piemēram, darbinieka piekļuves pārtraukšanu aizdomu par ļaunprātīgu darbību gadījumā) MI nevar pieņemt viens pats bez cilvēka veiktas pārskatīšanas. Varētu būt arī MI drošības produktu sertifikācijas, lai pārliecinātu pircējus, ka MI ir novērtēta attiecībā uz neobjektivitāti, robustumu un drošību. Turklāt varētu attīstīties starptautiskā sadarbība saistībā ar ar MI saistītiem kiberdraudiem; piemēram, vienošanās par MI radītas dezinformācijas apstrādi vai normas pret noteiktiem MI vadītiem kiberieročiem.

  • Integrācija ar plašāku mākslīgo intelektu (MI) un IT ekosistēmām: Ģeneratīvais MI kiberdrošībā, visticamāk, integrēsies ar citām MI sistēmām un IT pārvaldības rīkiem. Piemēram, MI, kas pārvalda tīkla optimizāciju, varētu sadarboties ar drošības MI, lai nodrošinātu, ka izmaiņas nerada nepilnības. MI vadīta biznesa analītika varētu koplietot datus ar drošības MI, lai korelētu anomālijas (piemēram, pēkšņu pārdošanas apjoma kritumu ar iespējamu vietnes problēmu uzbrukuma dēļ). Būtībā MI nedzīvos izolēti — tas būs daļa no plašāka organizācijas darbības intelektuālā auduma. Tas paver iespējas holistiskai risku pārvaldībai, kur MI varētu apvienot darbības datus, draudu datus un pat fiziskās drošības datus, lai sniegtu 360 grādu priekšstatu par organizācijas drošības stāvokli.

Ilgtermiņā cerība ir, ka ģeneratīvais mākslīgais intelekts palīdzēs nosvērt līdzsvaru par labu aizstāvjiem. Apzinoties mūsdienu IT vides mērogu un sarežģītību, mākslīgais intelekts var padarīt kibertelpu labāk aizsargājamu. Tomēr tas ir ceļojums, un, pilnveidojot šīs tehnoloģijas un mācoties tām pienācīgi uzticēties, būs grūtības. Organizācijas, kas sekos līdzi informācijai un iegulda atbildīgā mākslīgā intelekta ieviešanā drošības nolūkos, visticamāk, būs vislabāk sagatavotas, lai pārvarētu nākotnes draudus.

Kā norādīts Gartner nesenajā kiberdrošības tendenču ziņojumā, “ģeneratīvu mākslīgā intelekta lietošanas gadījumu (un risku) parādīšanās rada spiedienu uz transformāciju” ( Kiberdrošības tendences: noturība caur transformāciju — Gartner ). Tie, kas pielāgosies, izmantos mākslīgo intelektu kā spēcīgu sabiedroto; tie, kas atpaliks, var nonākt situācijā, kad mākslīgā intelekta atbalstīti pretinieki viņus apsteigs. Nākamie gadi būs izšķirošs laiks, lai noteiktu, kā mākslīgais intelekts pārveidos kibertelpas kaujas lauku.

Praktiski secinājumi par ģeneratīvā mākslīgā intelekta ieviešanu kiberdrošībā

Uzņēmumiem, kas izvērtē, kā savā kiberdrošības stratēģijā izmantot ģeneratīvo mākslīgo intelektu, šeit ir sniegti daži praktiski secinājumi un ieteikumi atbildīgai un efektīvai ieviešanai:

  1. Sāciet ar izglītību un apmācību: pārliecinieties, ka jūsu drošības komanda (un plašāks IT personāls) saprot, ko ģeneratīvais mākslīgais intelekts (MI) var un ko nevar darīt. Nodrošiniet apmācību par MI vadītu drošības rīku pamatprincipiem un atjauniniet drošības izpratnes programmas visiem darbiniekiem, lai aptvertu MI iespējotus draudus. Piemēram, māciet darbiniekiem, kā MI var ģenerēt ļoti pārliecinošas pikšķerēšanas shēmas un dziļviltus zvanus. Vienlaikus apmāciet darbiniekus par drošu un apstiprinātu MI rīku lietošanu darbā. Labi informēti lietotāji retāk nepareizi rīkojas ar MI vai kļūst par MI uzlabotu uzbrukumu upuriem ( Kā ģeneratīvo MI var izmantot kiberdrošībā? 10 reālās pasaules piemēri ).

  2. Definējiet skaidras mākslīgā intelekta lietošanas politikas: Ģeneratīvo mākslīgo intelektu (MI) izturieties pret jebkuru jaudīgu tehnoloģiju — ar atbilstošu pārvaldību. Izstrādājiet politikas, kas nosaka, kas var izmantot MI rīkus, kuri rīki ir atļauti un kādiem mērķiem. Iekļaujiet vadlīnijas par sensitīvu datu apstrādi (piemēram, konfidenciālu datu nenodošanu ārējiem MI pakalpojumiem), lai novērstu noplūdes. Piemēram, jūs varētu atļaut tikai drošības komandas locekļiem izmantot iekšējo MI palīgu incidentu reaģēšanai, bet mārketinga komanda var izmantot pārbaudītu MI saturam — visiem pārējiem tas ir ierobežots. Daudzas organizācijas tagad savās IT politikās skaidri pievēršas ģeneratīvajam MI, un vadošās standartu institūcijas veicina drošas lietošanas politikas, nevis pilnīgus aizliegumus ( Kā Ģeneratīvo MI var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). Noteikti paziņojiet šiem noteikumiem un to pamatojumu visiem darbiniekiem.

  3. Mainiet “ēnu mākslīgā intelekta” ietekmi un uzraugiet tā lietošanu: līdzīgi ēnu IT gadījumā, “ēnu mākslīgais intelekts” rodas, kad darbinieki sāk izmantot mākslīgā intelekta rīkus vai pakalpojumus bez IT ziņas (piemēram, izstrādātājs izmanto neatļautu mākslīgā intelekta koda palīgu). Tas var radīt neredzamus riskus. Ieviesiet pasākumus, lai atklātu un kontrolētu nesankcionētu mākslīgā intelekta lietošanu . Tīkla uzraudzība var atzīmēt savienojumus ar populāriem mākslīgā intelekta API, un aptaujas vai rīku auditi var atklāt, ko darbinieki izmanto. Piedāvājiet apstiprinātas alternatīvas, lai labi domājoši darbinieki nejustos kārdināti rīkoties negodīgi (piemēram, nodrošiniet oficiālu ChatGPT Enterprise kontu, ja cilvēki to uzskata par noderīgu). Izceļot mākslīgā intelekta lietošanu, drošības komandas var novērtēt un pārvaldīt risku. Svarīga ir arī uzraudzība – reģistrējiet mākslīgā intelekta rīku darbības un rezultātus, cik vien iespējams, lai būtu audita taka lēmumiem, kurus ietekmējis mākslīgais intelekts ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā? 10 reālās pasaules piemēri ).

  4. Izmantojiet mākslīgo intelektu (MI) aizsardzības nolūkos — neatpalieciet: Atzīstiet, ka uzbrucēji izmantos MI, tāpēc arī jūsu aizsardzībai vajadzētu to darīt. Nosakiet dažas augstas ietekmes jomas, kurās ģeneratīvais MI varētu nekavējoties palīdzēt jūsu drošības operācijām (piemēram, brīdinājumu triāža vai automatizēta žurnālu analīze), un veiciet pilotprojektus. Uzlabojiet savu aizsardzību ar MI ātrumu un mērogu , lai cīnītos pret strauji mainīgiem draudiem ( Kā ģeneratīvo MI var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). Pat vienkāršas integrācijas, piemēram, MI izmantošana ļaunprogrammatūras ziņojumu apkopošanai vai draudu meklēšanas vaicājumu ģenerēšanai, var ietaupīt analītiķiem stundas. Sāciet ar mazumiņu, novērtējiet rezultātus un atkārtojiet. Panākumi veidos pamatu plašākai MI ieviešanai. Mērķis ir izmantot MI kā spēka reizinātāju — piemēram, ja pikšķerēšanas uzbrukumi pārņem jūsu palīdzības dienestu, izvietojiet MI e-pasta klasifikatoru, lai proaktīvi samazinātu šo apjomu.

  5. Investējiet drošā un ētiskā mākslīgā intelekta praksē: ieviešot ģeneratīvo mākslīgo intelektu, ievērojiet drošas izstrādes un ieviešanas praksi. Izmantojiet privātus vai pašmitinātus modeļus sensitīviem uzdevumiem, lai saglabātu kontroli pār datiem. Ja izmantojat trešo pušu mākslīgā intelekta pakalpojumus, pārskatiet to drošības un privātuma pasākumus (šifrēšanu, datu saglabāšanas politikas utt.). Iekļaujiet mākslīgā intelekta riska pārvaldības sistēmas (piemēram, NIST mākslīgā intelekta riska pārvaldības sistēmu vai ISO/IEC vadlīnijas), lai sistemātiski risinātu tādus jautājumus kā neobjektivitāte, izskaidrojamība un robustums jūsu mākslīgā intelekta rīkos ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā? 10 reālās pasaules piemēri ). Apkopes ietvaros plānojiet arī modeļu atjauninājumus/ielāpus – mākslīgā intelekta modeļiem var būt arī "ievainojamības" (piemēram, tiem var būt nepieciešama atkārtota apmācība, ja tie sāk novirzīties no normas vai ja tiek atklāts jauna veida pretinieku uzbrukums modelim). Integrējot drošību un ētiku mākslīgā intelekta lietošanā, jūs veidojat uzticību rezultātiem un nodrošināt atbilstību jaunākajiem noteikumiem.

  6. Uzturēt cilvēkus informētus: Izmantojiet mākslīgo intelektu (MI), lai palīdzētu, nevis pilnībā aizstātu cilvēku spriedumus kiberdrošībā. Nosakiet lēmumu pieņemšanas punktus, kuros nepieciešama cilvēka validācija (piemēram, MI var sagatavot incidenta ziņojumu, bet analītiķis to pārskata pirms izplatīšanas; vai MI var ieteikt bloķēt lietotāja kontu, bet cilvēks apstiprina šo darbību). Tas ne tikai novērš MI kļūdu nekontrolēšanu, bet arī palīdz jūsu komandai mācīties no MI un otrādi. Veiciniet sadarbību darbplūsmā: analītiķiem vajadzētu justies ērti, apšaubot MI rezultātus un veicot to pamatotības pārbaudes. Laika gaitā šis dialogs var uzlabot gan MI (izmantojot atgriezenisko saiti), gan analītiķu prasmes. Būtībā izstrādājiet savus procesus tā, lai MI un cilvēka stiprās puses papildinātu viena otru – MI pārvalda apjomu un ātrumu, cilvēki pārvalda neskaidrības un galīgos lēmumus.

  7. Mērīšana, uzraudzība un pielāgošana: Visbeidzot, izturieties pret saviem ģeneratīvajiem mākslīgā intelekta rīkiem kā pret dzīvām jūsu drošības ekosistēmas sastāvdaļām. Nepārtraukti mēriet to veiktspēju – vai tie samazina incidentu reaģēšanas laiku? Vai tie agrāk atklāj draudus? Kāda ir kļūdaini pozitīvo rezultātu rādītāja tendence? Pieprasiet atsauksmes no komandas: vai mākslīgā intelekta ieteikumi ir noderīgi vai rada troksni? Izmantojiet šos rādītājus, lai pilnveidotu modeļus, atjauninātu apmācības datus vai pielāgotu mākslīgā intelekta integrāciju. Kiberdraudi un biznesa vajadzības mainās, un jūsu mākslīgā intelekta modeļi periodiski jāatjaunina vai jāpārkvalificē, lai tie saglabātu efektivitāti. Izveidojiet modeļa pārvaldības plānu, tostarp to, kas ir atbildīgs par tā uzturēšanu un cik bieži tas tiek pārskatīts. Aktīvi pārvaldot mākslīgā intelekta dzīves ciklu, jūs nodrošināt, ka tas paliek aktīvs, nevis saistības.

Noslēgumā jāsaka, ka ģeneratīvais mākslīgais intelekts var ievērojami uzlabot kiberdrošības spējas, taču veiksmīgai ieviešanai ir nepieciešama pārdomāta plānošana un pastāvīga uzraudzība. Uzņēmumi, kas izglīto savus darbiniekus, nosaka skaidras vadlīnijas un integrē mākslīgo intelektu līdzsvarotā un drošā veidā, gūs labumu no ātrākas un viedākas apdraudējumu pārvaldības. Šīs atziņas sniedz ceļvedi: apvienot cilvēku zināšanas ar mākslīgā intelekta automatizāciju, aptvert pārvaldības pamatus un saglabāt elastību, jo gan mākslīgā intelekta tehnoloģija, gan apdraudējumu aina neizbēgami attīstās.

Veicot šos praktiskos soļus, organizācijas var pārliecinoši atbildēt uz jautājumu "Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā?" – ne tikai teorijā, bet arī ikdienas praksē – un tādējādi stiprināt savu aizsardzību mūsu arvien digitālākajā un mākslīgā intelekta vadītajā pasaulē. ( Kā ģeneratīvo mākslīgo intelektu var izmantot kiberdrošībā )

Pēc šī dokumenta jūs varētu vēlēties izlasīt šādus informatīvos materiālus:

🔗 Darbi, kurus mākslīgais intelekts nevar aizstāt, un kādus darbus mākslīgais intelekts aizstās?
Izpētiet globālo skatījumu uz to, kuras lomas ir pasargātas no automatizācijas un kuras nē.

🔗 Vai mākslīgais intelekts var paredzēt akciju tirgu?
Tuvāk apskatīsim ierobežojumus, atklājumus un mītus par mākslīgā intelekta spēju prognozēt tirgus kustības.

🔗 Ko var paveikt ar ģeneratīvo mākslīgo intelektu bez cilvēka iejaukšanās?
Izprotiet, kur mākslīgais intelekts var darboties neatkarīgi un kur joprojām ir nepieciešama cilvēka uzraudzība.

Atpakaļ uz emuāru