respublika.lt

Pavogtas veidas: klastotė gali įvaryti į kampą net teismą

(8)
Publikuota: 2025 spalio 02 18:15:30, Vytas VARUNGIS
×
nuotr. 1 nuotr.
Asociatyvi Freepik.com nuotr.

Suklastotus balso ar veido įrašus leidžia sukurti dirbtinio intelekto (DI) technologija „deepfake". Iš pradžių tai buvo lyg žaidimas, o per pastaruosius kelerius metus ėmė drebinti pasaulį. Tokios klastotės tapo labai pavojinga priemone sukčiavimui, šmeižimui ar dezinformacijai. Jos socialiniais tinklais po pasaulį pasklinda per akimirką ir gali padaryti didžiulę žalą.

 

 

Advokatų profesinės bendrijos „Law Corpus" vadovaujantis partneris, teisininkas ROKAS VENSLAUSKAS „Vakaro žinioms" komentavo, kad „deepfake" įrašus kuriančių nusikaltėlių taikiniais jau tampa ne tik žinomi politikai, visuomenės veikėjai, bet ir eiliniai gyventojai, o teisinėje sistemoje kelia įrodymų autentiškumo krizę. Teisėsaugai ir teismams reikia naujų kompetencijų, techninių įrankių ir metodikų.

„Nors Lietuvos teisėsaugos kompetencijos auga, kova su „deepfake" įrašais yra nuolatinės lenktynės", - sako advokatas.

- Pasaulyje garsiai skamba pavojaus varpai dėl „deepfake" įrašų. Kiek tai jau aktualu mūsų šalyje - ar padaugėjo tokių klastočių panaudojimo atvejų?

- Lietuvoje „deepfake" įrašų problema sparčiai auga tiek kiekybiškai, tiek kokybiškai. Klastotės tampa vis sudėtingesnės, o jų taikiniais - ne tik žinomi visuomenės veikėjai, bet ir eiliniai gyventojai. Nacionalinis krizių valdymo centras (NKVC) šiemet feisbuke fiksavo apie 170 mokamų reklaminių kampanijų, kurios buvo nukreiptos į Lietuvos auditoriją. Tarp jų buvo ir „deepfake" vaizdo įrašų bei naujienų portalų imitacijų, kuriose neteisėtai naudoti žinomų asmenų atvaizdai. Nustatyta 11 aktyvių reklamų, kurios šiuo metu yra platinamos feisbuke, iš jų 9-iose naudojama DI technologija viešų asmenų pasisakymams, veidams ir balsams iškraipyti.

Šiemet Lietuvoje pasirodė aukščiausios iki šiol kokybės „deepfake" įrašų, sukurtų lietuvių kalba. Klastojami žurnalistų, gydytojų ir politikų, pavyzdžiui, Aurelijaus Verygos, balsai bei atvaizdai, siekiant maksimalaus įtikinamumo.

Dar vienas iš pavyzdžių - neteisėtas SEB banko vyriausiojo ekonomisto Nerijaus Mačiulio atvaizdo panaudojimas „deepfake" vaizdo įraše, kuriame gyventojai buvo raginami investuoti į sukčiavimo schemas.

Nacionalinio kibernetinio saugumo centro (NKSC) duomenimis, pernai užregistruoti 3874 kibernetiniai incidentai. Tai 63 proc. daugiau nei 2023 m. Šioje aplinkoje „deepfake" tampa vis dažniau naudojamu nusikaltimų įrankiu. Tokių klastočių Lietuvoje daugėja, jos tampa technologiškai pažangesnės ir vis aktyviau naudojamos finansiniam sukčiavimui bei koordinuotoms dezinformacijos atakoms vykdyti.

- Mūsų policija su „deepfake" dažniausiai susiduria tiriant sukčiavimo bylas, kai sukuriami netikri profiliai, puslapiai, vaizdo ar garso įrašai, elektroniniai laiškai, kurių pagalba iš žmonių išviliojami pinigai. Kokiems nusikaltimams dar panaudojamos DI klastotės?

- Ši technologija tampa įrankiu įgyvendinti platų spektrą nusikalstamų veikų. Aišku, sukčiavimas - viena dažniausių sričių. „Deepfake" įraše vaizdas ar balsas naudojamas siekiant apgaule išvilioti lėšas. Pavyzdžiui, imituojamas įmonės vadovo vaizdo skambutis, kurio metu nurodoma atlikti skubų pavedimą.

„Deepfake" įrašai naudojami ir šmeižimui - siekiama pakenkti žmogaus reputacijai, skleidžiant tikrovės neatitinkančią, žeminančią informaciją per visuomenės informavimo priemones.

Tokią technologiją nusikaltėliai taip pat naudoja turtui prievartauti. Žmogus šantažuojamas, grasinant paviešinti suklastotą kompromituojančią medžiagą, pavyzdžiui, intymius vaizdo įrašus.

Galima suklastoti ir dokumentą. Tokiu atveju „deepfake" įrašas, siekiant suklaidinti, gali būti pateikiamas kaip skaitmeninis įrodymas teismui, darbdaviui ar kitoms institucijoms.

Įmanomas ir melagingas įskundimas: sukuriama klastotė, tariamai įrodanti, kad asmuo padarė nusikaltimą, ir ji pateikiama teisėsaugai.

Nusikaltėliams gali tekti atsakyti ir už neteisėtą informacijos apie privatų asmens gyvenimą rinkimą, atskleidimą ar panaudojimą. Neteisėtas atvaizdo ir balso panaudojimas klastotei sukurti, ypač intymaus pobūdžio turinyje, pažeidžia teisę į privatų gyvenimą.

- Gal galėtumėte pateikti įsimintinų „deepfake" įrašų, panaudotų nusikaltimams, pavyzdžių?

- Nors Lietuvoje dar nėra plačiai nuskambėjusių bylų, kuriose „deepfake" įrašas būtų pagrindinis įrodymas, užsienio šalyse didelį rezonansą ne vienas toks atvejis. Štai „Arup" finansinė apgaulė Honkonge 2024 m. Tarptautinės įmonės finansininkas buvo apgautas per „deepfake" vaizdo konferenciją, kurioje dalyvavo suklastoti kolegos. Jis pervedė sukčiams apie 25 mln. JAV dolerių - tai vienas didžiausių tokio pobūdžio nusikaltimų pasaulyje.

Dar vienas pavyzdys -„CEO balso" apgaulė Jungtinėje Karalystėje 2019 m. Tai pirmasis plačiai nuskambėjęs atvejis, kai DI buvo panaudotas įmonės vadovo balsui klonuoti. Sukčiai telefonu nurodė pavaldiniui pervesti 220 tūkst. eurų.

2023 m. Slovakijoje prieš pat rinkimus buvo išplatintas suklastotas garso įrašas, imituojantis vieno iš politinių lyderių ir žurnalistės pokalbį apie rinkimų klastojimą. Ši ataka pademonstravo „deepfake" potencialą daryti įtaką politiniams procesams.

- Kokias pagrindines problemas sukuria vaizdo ar garso įrašų klastotės nagrinėjant bylas?

- Pagrindinis iššūkis - įrodymų autentiškumo krizė. „Deepfake" technologija griauna fundamentalų pasitikėjimą vaizdo ir garso įrašais kaip objektyviais įrodymais. Tai teisiniuose procesuose sukelia tris pagrindines problemas. Pirmiausia - autentiškumo įrodinėjimas. Teismui tenka pareiga nustatyti, ar pateiktas įrašas yra tikras. Tam reikalingos sudėtingos ir brangios skaitmeninės ekspertizės bei patikima įrodymų grandinės kontrolė.

Taip pat atsiranda galimybė neigti net ir tikrus, inkriminuojančius įrašus, tvirtinant, kad jie yra suklastoti. Tai apsunkina teisingumo vykdymą ir reikalauja papildomų laiko bei finansinių resursų įrodymų tikrumui patvirtinti.

Be to kyla procesinis neapibrėžtumas. Teisėsaugai ir teismams reikia naujų kompetencijų, techninių įrankių ir metodikų, kad galėtų efektyviai dirbti su potencialiai suklastotais skaitmeniniais įrodymais.

- Ar mūsų teisėsaugai pakanka resursų efektyviai ištirti tokius nusikaltimus?

- Lietuvos institucijos stiprina savo pajėgumus kovoti su „deepfake" įrašų grėsmėmis, tačiau iššūkiai išlieka dideli. Policijoje veikia „virtualus patrulis", kuris stebi elektroninę erdvę ir reaguoja į pažeidimus. Per 3 metus gauta apie 25 tūkst. pranešimų.

NKSC, Krašto apsaugos ministerija ir kitos institucijos koordinuoja veiksmus kibernetinių incidentų valdymo srityje. Sparčiai augantis kibernetinių incidentų skaičius rodo, kad specialistams tenkantis darbo krūvis yra milžiniškas. Aukštos kokybės „deepfake" įrašų atpažinimas ir tyrimas reikalauja specifinių žinių ir technologijų.

Kaip pabrėžia Europolas, visos Europos Sąjungos šalys privalo nuolat investuoti į naujausius „deepfake" įrašų aptikimo įrankius, specialistų mokymus ir įrodymų valdymo metodikas, nes technologijų vystymosi tempas lenkia standartines teisėsaugos priemones.

Taigi, nors Lietuvos teisėsaugos kompetencijos auga, kova su „deepfake" įrašais yra nuolatinės lenktynės, reikalaujančios nuolatinių investicijų ir gebėjimų adaptacijos.

- Tai kaip gintis nukentėjusiems nuo „deepfake" įrašų?

- Svarbiausia veikti greitai, metodiškai ir koordinuotai. Pirmiausia nedelsdami užfiksuokite įrodymus. Padarykite ekrano nuotraukas, išsaugokite tiesiogines nuorodas (URL), atsisiųskite vaizdo ar garso failą. Dokumentuokite kontekstą: užsirašykite, kada ir kurioje platformoje turinys buvo paskelbtas, kas jį platino. Jei patyrėte finansinę žalą, nedelsdami surinkite visą informaciją apie mokėjimus (laikas, sumos, gavėjo rekvizitai).

Praneškite institucijoms. Pateikite pareiškimą policijai per portalą ePolicija.lt arba, skubiu atveju, skambinkite 112. Pridėkite visus surinktus įrodymus. Jei turinys yra pornografinio pobūdžio, smurtinis ar kursto neapykantą, praneškite Ryšių reguliavimo tarnybos (RRT) karštajai linijai. Jie padės inicijuoti greitą turinio šalinimo procedūrą.

Reikalaukite pašalinti turinį iš platformų. Naudokitės socialinių tinklų („Facebook", „YouTube", „TikTok") skundų mechanizmais (report). Nurodykite, kad turinys yra melagingas, pažeidžia jūsų privatumą ar yra sukurtas siekiant pakenkti.

Ginkite teises teisme civiline tvarka. Remdamiesi Civilinio kodekso 2.22 straipsniu (teisė į atvaizdą) ir 2.24 straipsniu (garbės ir orumo gynimas), galite kreiptis į teismą ir reikalauti: pašalinti turinį ir uždrausti jį toliau platinti; viešai paneigti melagingą informaciją; atlyginti turtinę ir neturtinę (moralinę) žalą.

Kreipkitės į Valstybinę duomenų apsaugos inspekciją (VDAI). Jūsų veidas ir balsas yra asmens duomenys. Jų panaudojimas be teisinio pagrindo yra Bendrojo duomenų apsaugos reglamento (BDAR) pažeidimas. Galite pateikti skundą VDAI.

Jei patyrėte finansinę žalą nedelsdami susisiekite su savo banku, prašydami sustabdyti mokėjimą ar inicijuoti jo grąžinimo procedūrą.

Papildomai verta žinoti, kad naujasis ES Dirbtinio intelekto aktas įpareigoja aiškiai ženklinti DI sukurtą ar modifikuotą turinį, kas ateityje palengvins kovą su nepažymėtomis klastotėmis.

Patiko straipsnis? Leisk mums apie tai sužinoti. Nepamiršk pasidalinti Facebook!
L
7
F

Sekite mus „Google“ naujienose.

Esame Facebook: būk su mumis Facebook

Esame Youtube: būk su mumis Youtube

Esame Telegram: būk su mumis Telegram

Parašykite savo komentarą:
 
Komentuoti
Skaityti komentarus (8)
Respublika.lt pasilieka teisę pašalinti nekultūringus, keiksmažodžiais pagardintus, su tema nesusijusius, kito asmens vardu pasirašytus, įstatymus pažeidžiančius, šlamštą reklamuojančius ar nusikalsti kurstančius komentarus. Jei kurstysite smurtą, rasinę, tautinę, religinę ar kitokio pobūdžio neapykantą, žvirbliu išskridę jūsų žodžiai grįždami gali virsti toną sveriančiu jaučiu - specialiosioms Lietuvos tarnyboms pareikalavus suteiksime jūsų duomenis.

Dienos klausimas

Kaip manote, ar reikia kada nors Lietuvoje įgyvendinti visišką tabako ir nikotino draudimą?

balsuoti rezultatai

Apklausa

Kaip vertinate Donaldo Trampo politiką?

balsuoti rezultatai

Respublika
rekomenduoja

Labiausiai
skaitomi

Daugiausiai komentuoti

Orų prognozė

Šiandien Rytoj Poryt

0 +4 C

+1 +6 C

+8 +11 C

+7 +13 C

+9 +13 C

+12 +13 C

0-3 m/s

0-7 m/s

0-9 m/s