Vyriausybės imasi veiksmų prieš giliųjų klastotės platinimą
Šią savaitę Malaizija ir Indonezija pateko į antraštes, apribodamos prieigą prie Grok, AI pokalbių roboto, kurį sukūrė Elono Musko xAI. Toks žingsnis buvo priimtas po to, kai valdžios institucijos išreiškė rimtą susirūpinimą dėl platformos, naudojamos seksualinio pobūdžio ir nesuderinamų vaizdų generavimui. Kalifornijos generalinis prokuroras Robas Bonta paskelbė apie panašų tyrimą ir patvirtino, kad jo biuras nagrinėjo daugybę pranešimų, susijusių su seksualizuotais tikrų asmenų vaizdais.
Bontos pareiškimas buvo gana tiesus. Jis sakė, kad ši medžiaga, kurioje moterys ir vaikai rodomos nuogos ir atvirose situacijose, buvo naudojama priekabiauti prie žmonių visame internete. Jis paragino xAI nedelsiant imtis veiksmų. Tačiau manau, kad tikroji problema čia neapsiriboja tik viena kompanija ar platforma.
Deepfake technologijos raida
Kuo naujesni „deepfake“ įrankiai skiriasi – dinamiškas jų reagavimas. Skirtingai nuo ankstesnių versijų, kurios buvo statiškesnės, šie įrankiai gali reaguoti į raginimus realiuoju laiku. Jie įtikinamai tiksliai atkartoja natūralius veido judesius – mirksėjimas, šypsena, galvos judesiai atrodo autentiški. Kalbos ir veido išraiškų sinchronizavimas labai pagerėjo.
Dėl šios pažangos kyla problemų patvirtinimo sistemoms, kurios remiasi šiais pagrindiniais patikrinimais. Prašymas ko nors mirksėti arba pasukti galvą tikrinant vaizdo įrašą gali nebeveikti. Technologija tiesiog tapo per gera, kad imituotų šiuos natūralius judesius.
Pasekmės centralizuotoms biržoms
Kriptovaliutų platformoms tai yra tikras iššūkis. Dauguma centralizuotų mainų naudoja tam tikrą vizualinės tapatybės patvirtinimo formą prisijungimo metu. Tai yra jų „Pažink savo klientą“ (KYC) reikalavimų dalis. Paprastai naudotojai pateikia savo nuotraukas ar vaizdo įrašus su tapatybės dokumentais.
Tačiau jei „deepfakes“ gali įtikinamai pakartoti šiuos patikrinimo veiksmus, visa sistema tampa pažeidžiama. Finansinis poveikis nebėra teorinis. Pramonės stebėtojai atkreipė dėmesį į dirbtinio intelekto sukurtus vaizdus ir vaizdo įrašus, rodomus draudimo ieškiniuose ir teisiniuose ginčuose. Kripto platformos, turinčios pasaulinį aprėptį ir dažnai automatizuotus prisijungimo procesus, gali tapti patraukliais tikslais.
Adaptyvių saugumo priemonių poreikis
Tikrasis klausimas yra ne tas, ar centralizuotų mainų vartotojai turėtų nerimauti – jie tikriausiai turėtų bent šiek tiek. Aktualesnis klausimas yra tai, kaip platformos prisitaikys. Pasitikėjimo, pagrįsto tik vizualiniu patikrinimu, gali nepakakti.
Kripto biržos susiduria su iššūkiu atnaujinti savo saugumo priemones, kol technologija nepralenks jų apsaugos. Tai ne tik apie daugiau patvirtinimo sluoksnių pridėjimą, nors tai gali padėti. Kalbama apie iš esmės permąstyti, kaip tapatybės patvirtinimas veikia pasaulyje, kuriame galima sukurti vaizdinius įrodymus.
Kai kuriose platformose gali reikėti įtraukti papildomų patvirtinimo metodų. Galbūt elgesio analizė, įrenginio pirštų atspaudų ėmimas ar sudėtingesni biometriniai patikrinimai. Problema ta, kad kiekvienas papildomas sluoksnis padidina vartotojo patirtį, kurią mainai paprastai stengiasi sumažinti.
Taip pat reikia atsižvelgti į reguliavimo kampą. Vyriausybei visame pasaulyje priimant teisės aktus prieš padirbinėjimus, mainai turės užtikrinti, kad jų atitikties priemonės neatsiliktų nuo technologijų ir teisinės raidos.
Atrodo aišku, kad pokalbis apie tapatybės patvirtinimą turi vystytis. Seni metodai gali neatlaikyti naujų technologijų. O centralizuotų mainų atveju tai reiškia, kad reikia iš naujo įvertinti visą požiūrį į naudotojų patikrinimą ir saugumą.