Kibernetinis saugumas ir dirbtinis intelektas: naujos grėsmės ir nauji ginklai

2025 m. spalio 14 d. 09:59
Lrytas.lt
Technologijų pasaulyje pastaraisiais metais dirbtinis intelektas (DI) tapo viena svarbiausių inovacijų, keičiančių ne tik darbo rinką, bet ir mūsų kasdienybę. Jis geba analizuoti milžiniškus duomenų kiekius, kurti vaizdus, tekstus ar net ištisus vaizdo įrašus – rodosi, pritaikyme mus riboja tik fantazija.
Daugiau nuotraukų (2)
Tačiau šalia visų teigiamų galimybių DI atveria ir naujas grėsmes – ypač kibernetinio saugumo srityje. Šiame straipsnyje aptarsime, kaip DI tampa tiek apsaugos įrankiu, tiek pavojinga priemone sukčiams.
Dirbtinis intelektas kaip skydas: saugumo technologijų revoliucija
Kibernetinės atakos kasmet tampa vis sudėtingesnės. Įprastos antivirusinės ar ugniasienės jau nebepajėgia apsaugoti nuo visų grėsmių, todėl DI sprendimai tampa jei ne būtini, tai bent jau pageidaujami. Modernios DI sistemos gali realiu laiku stebėti tinklo srautą, aptikti įtartiną elgesį ir net prognozuoti galimus įsilaužimus. Tai reiškia, kad saugumo specialistai su DI pagalba gali ne tik reaguoti į ataką, bet ir užkirsti kelią jai dar net neprasidėjus.
DI taip pat padeda analizuoti milžiniškus duomenų kiekius, kurie būtų neįveikiami žmogui. Pavyzdžiui, jis gali greitai palyginti milijonus prisijungimų, identifikuoti netipinius bandymus ar pastebėti neįprastus vartotojų veiksmus. Tokiu būdu stiprinama tiek valstybių, tiek verslo įmonių, tiek paprastų žmonių duomenų apsauga.
DI rankose – nauji sukčių ir propagandos ginklai
Nors daugelis jau įprato mėgautis DI galimybėmis, vis dėlto ta pati technologija, kuri padeda aptikti kenkėjiškas programas ar sustiprinti kibernetinę apsaugą, vis dažniau pasitelkiama apgaulei. Vienas didžiausių pastarųjų metų iššūkių – „deepfake“ kūriniai, t. y. dirbtiniu intelektu sugeneruotos nuotraukos ar vaizdo įrašai, kuriuose žmogus atrodo sakantis ar darantis tai, ko iš tiesų niekada nedarė. Šios klastotės jau dabar naudojamos įvairiuose kontekstuose – nuo politinės propagandos iki šantažo ar finansinių apgavysčių. Jei anksčiau tam reikėjo specialių įgūdžių ir laiko, šiandien pakanka kelių programų ir kelių minučių, kad būtų sukurtas netikras, bet be galo įtaigus bet kurio žmogaus atvaizdas.
Dar viena sparčiai plintanti grėsmė – balsų klonavimas. Sukčiai naudoja DI, kad realiu laiku imituotų žmogaus balsą arba kurtų įtikinamus garso įrašus. Įsivaizduokite, kad gaunate skambutį iš artimo žmogaus, kuris skamba visiškai tikroviškai ir prašo skubiai pervesti pinigus dėl jį ištikusios bėdos. Tokių atvejų jau pasitaiko vis dažniau – nuo paprastų buitinių apgavysčių iki stambių verslo aferų. Vienas iš pirmųjų plačiai nuskambėjusių atvejų užfiksuotas dar 2019 m., kai Vokietijos energetikos įmonės vadovas buvo apgautas DI klonuotu viršininko balsu ir pervedė apie 220–240 tūkst. eurų į nusikaltėlių sąskaitą. Šis incidentas parodė, kaip greitai įprastos „vishing“ (telefoninės apgaulės) formos gali tapti kur kas pavojingesnės, kai jas sustiprina DI technologijos.
Nuo pavienių apgavysčių iki informacinio karo
Kibernetinis saugumas šiandien neapsiriboja vien duomenų apsauga – jis tampa ir geopolitinių konfliktų dalimi. Naudodami DI, propagandos kūrėjai gali masiškai gaminti melagingas naujienas, manipuliuoti nuotraukomis ir skleisti įtikinamus, bet suklastotus vaizdo įrašus. Tokių pavyzdžių jau matyta ne kartą. Pavyzdžiui, 2019 m. internete paplito sulėtintas ir kitaip apdorotas JAV politikės Nancy Pelosi kalbos įrašas, dėl kurio daugelis žiūrovų patikėjo klaidinga informacija apie jos būklę. Nors tai nebuvo „grynas“ „deepfake“, incidentas paskatino diskusijas apie tai, kaip lengvai galima iškraipyti realybę ir kaip tokie įrašai gali paveikti rinkimų eigą, visuomenės pasitikėjimą žiniasklaida ar net tarptautinius santykius.
Pastaraisiais metais fiksuota ir daugiau atvejų, kai DI pasitelkiamas vaizdo kūrimui su tikslu apgauti. Paskutiniais 2024–2025 m. analitikai vis dažniau praneša apie „deepfake“ vaizdo skambučių apgavystes, kai sukčiai, apsimetę vadovais ar partneriais, išvilioja iš įmonių milžiniškas pinigų sumas. Kai realaus žmogaus veidas ir balsas gali būti sukurti iš kelių nuotraukų ir sekundžių įrašo, tradicinių patikros procedūrų nebepakanka. nebeužtektinos. Tokie incidentai rodo, kad saugumo grandinė turi būti stiprinama ne tik techninėmis priemonėmis, bet ir žmonių budrumu bei gebėjimu atpažinti psichologinius manipuliacijos signalus.
Asmens duomenų vertė ir nauja realybės samprata
Kita ne mažiau svarbi DI keliama grėsmė – informacijos personalizavimas. Sukčiai, pasitelkę dirbtinį intelektą, gali ne tik pavogti duomenis, bet ir juos „praturtinti“. Algoritmai iš viešai prieinamų socialinių tinklų įrašų sugeba atpažinti žmogaus pomėgius, įpročius, emocijas ar net silpnybes. Tokia informacija tampa idealiu pagrindu tikslinei apgaulei: užuot siuntę tūkstančius bendrų laiškų, sukčiai gali kurti pranešimus, pritaikytus būtent jums. Rezultatas – apgaulės tampa sudėtingesnės, asmeniškesnės ir todėl daug sunkiau atpažįstamos.
Dar pavojingesnis yra platesnis klausimas – kas šiandien apskritai yra tikra? Kai DI leidžia dirbtinai kurti tekstus, nuotraukas, balsus ir net veidus, žmogui darosi vis sunkiau atskirti tikrovę nuo klastotės. Tai griauna pasitikėjimą ne tik žiniasklaida ar institucijomis, bet ir vienas kitu. Tikrovė tampa pažeidžiama, o visuomenė rizikuoja nugrimzti į savotiškos paranojos būseną. Ši nauja realybės samprata tampa kasdieniu iššūkiu, su kuriuo turime mokytis gyventi jau dabar.
Tarp pažangos ir rizikos
Kibernetinis saugumas ir dirbtinis intelektas šiandien tampa tarsi dviejų komandų žaidėjai: viena pusė gina, kita puola. Technologijų pažanga greičiau nei bet kada anksčiau keičia taisykles, todėl nuolat kyla klausimas – ar spėsime sukurti pakankamai saugių priemonių, kad apsaugotume save nuo tų, kurie DI pasitelkia piktiems tikslams?
Atsakymas slypi ne tik technologijose, bet ir mūsų pačių sąmoningume. Svarbu kritiškai vertinti informaciją, netikėti viskuo, ką matome ar girdime, ir suprasti, kad net labiausiai įtikinantis vaizdo įrašas gali būti netikras.
Nors atsakingai naudojamas DI gali tapti galingu ginklu prieš kibernetinius nusikaltėlius, užtikrinti, kad jo pažanga nepasinaudos piktavaliai negalime. Belieka tikėtis, kad prieštaringų jėgų kovoje nugalės saugai, o ne puolėjai.
Taigi, dirbtinio intelekto amžiuje kibernetinis saugumas nebegali remtis vien tradicinėmis priemonėmis. Turime priimti naują realybę – DI yra tiek apsaugos, tiek grėsmės šaltinis. Todėl mūsų užduotis – išmokti naudotis šiomis technologijomis taip, kad jos tarnautų žmogui, o ne atvirkščiai.

UAB „Lrytas“,
A. Goštauto g. 12A, LT-01108, Vilnius.

Įm. kodas: 300781534
Įregistruota LR įmonių registre, registro tvarkytojas:
Valstybės įmonė Registrų centras

lrytas.lt redakcija news@lrytas.lt
Pranešimai apie techninius nesklandumus pagalba@lrytas.lt

Atsisiųskite mobiliąją lrytas.lt programėlę

Apple App StoreGoogle Play Store

Sekite mus:

Visos teisės saugomos. © 2026 UAB „Lrytas“. Kopijuoti, dauginti, platinti galima tik gavus raštišką UAB „Lrytas“ sutikimą.