AI kibernetinis saugumas dabar yra oficiali konkurencija tarp OpenAI ir Anthropic – OpenAI baigia kurti pažangų saugos produktą, skirtą riboto partnerio leidimui, o Anthropic vykdo griežtai kontroliuojamas pastangas, pavadintas Project Glasswing, kurios tikslas – rasti svarbių programinės įrangos spragų prieš užpuolikams.
Santrauka
- „OpenAI“ baigia kurti AI kibernetinio saugumo produktą, kuris pirmiausia bus išleistas ribotam partnerių skaičiui.
- „Anthropic“ projektas Glasswing yra kontroliuojama iniciatyva, skirta aktyviam kritinių programinės įrangos spragų paieškai.
- Abi pastangos kelia esminių klausimų apie tai, kas kontroliuoja dirbtinio intelekto nusikaltimus ir gynybos priemones ir kas yra atsakingas, kai viskas klostosi ne taip.
Dirbtinis intelektas perėjo iš įrankio, kuris padeda gynėjams suprasti grėsmes, į įrankį, kuris gali savarankiškai rasti ir išnaudoti pažeidžiamumą. „OpenAI“ ir „Anthropic“ dabar jungiasi tiesiai į šią erdvę, o tai daro įtaką vyriausybėms, įmonėms ir milijonams programinės įrangos sistemų, kuriomis grindžiama pasaulinė finansinė infrastruktūra.
Remiantis „Tech Startups“, „OpenAI“ baigia kurti AI kibernetinio saugumo produktą su pažangiomis galimybėmis ir planuoja iš pradžių jį išleisti ribotų partnerių grupei. Anthropic vykdo lygiagrečias pastangas viduje, vadinamą Project Glasswing, griežtai kontroliuojamą iniciatyvą, skirtą sumesti svarbias programinės įrangos spragas, kol kenkėjiški veikėjai pirmiausia juos aptinka.
Dvigubi pranešimai žymi dviejų pirmaujančių AI laboratorijų pozicionavimo pasikeitimą. Abu jie pereina nuo bendrosios paskirties AI prie specifinių saugumo produktų, turinčių tiesioginį puolimo ir gynybos pajėgumą. Klausimas nebėra toks, ką AI gali padaryti kibernetinio saugumo srityje. Tai, kas ją kontroliuoja ir kas atsako, kai nepavyksta.
Ką rodo Anthropic įrašai
Anthropic jau pademonstravo, kokį mastą gali pasiekti AI saugos įrankiai. Kaip pranešė crypto.news, bendrovė apribojo prieigą prie savo Claude Mythos Preview modelio po to, kai ankstyvi bandymai nustatė, kad jis gali atskleisti tūkstančius kritinių spragų plačiai naudojamose programinės įrangos aplinkose, įskaitant 27 metų senumo OpenBSD klaidą ir 16 metų senumo nuotolinio vykdymo trūkumą FreeBSD. Anthropic sakė: „Atsižvelgiant į AI pažangos greitį, neilgai trukus tokios galimybės išplis, galbūt ne tik veikėjai, kurie yra įsipareigoję jas saugiai panaudoti“.
Anthropic nurodyti pramonės duomenys rodo, kad dirbtinio intelekto vykdomų kibernetinių atakų skaičius per metus išaugo 72 %, o 87 % pasaulinių organizacijų pranešė, kad 2025 m. susidūrė su dirbtiniu intelektu įjungtais incidentais. Projektas Glasswing laikomas kontroliuojamu Anthropic pastangomis neatsilikti nuo šios kreivės.
Dvejopo naudojimo AI saugos įrankių rizika
Gilesnė reguliavimo institucijų ir pramonės problema yra ta, kad tas pats AI įrankis, kuris aptinka pažeidžiamumą gynybai, gali jį rasti įžeidžiančiu. Kaip pažymėjo crypto.news, bendras Anthropic ir MATS Fellows tyrimas parodė, kad Claude Sonnet ir GPT-5 gali sukurti imituojamus išnaudojimus prieš Ethereum išmaniąsias sutartis, kurių bandymai kainuoja 4,6 mln. USD, ir atskleidė du naujus nulinės dienos pažeidžiamumus beveik 3 tūkst.
Dėl šios dvejopo naudojimo realybės kontroliuojamos diegimo strategijos, kurių siekia abi bendrovės, yra būtinos. Tačiau į klausimą, ar ribotos prieigos pakanka, kad būtų išvengta platinimo, nė viena laboratorija neatsakė iki galo.