Tamsioji DI pusė – neegzistuojantys šaltiniai ir netikros citatos: kaip neapsigauti?

2026 m. gegužės 13 d. 09:20
Dirbtinio intelekto (DI) įrankiai daugeliui jau tapo kasdienio darbo ir laisvalaikio dalimi: padeda greičiau parašyti tekstą, surasti informaciją ar apibendrinti dokumentus. Vis dėlto, dažnai vartotojams tenka susidurti su vadinamosiomis DI „haliucinacijomis“ – kai įrankis pateikia klaidingus faktus, neegzistuojančius šaltinius ar net išgalvotas citatas. Ekspertai aiškina, kad taip nutinka dėl labai paprastos priežasties.
Daugiau nuotraukų (1)
Užtikrintas atsakymas dar nereiškia tiesos
Pasak „Tele2“ klientų duomenų analizės ir įžvalgų vadovės Ingos Rudinskaitės, viena didžiausių klaidų – manyti, kad dirbtinis intelektas veikia kaip paieškos sistema ar faktų duomenų bazė.
„Daugelis DI įrankių atsakymus generuoja ne ieškodami vienos teisingos informacijos, o pagal tikimybę prognozuodami, koks sakinys ar žodis turėtų sekti toliau. Dėl to atsakymai dažnai skamba labai užtikrintai net tada, kai informacija nėra tiksli. Be to, modernūs modeliai papildomai treniruojami pateikti atsakymą net tada, kai tiksliausia reakcija būtų „nežinau“, todėl jų tonas dažnai atrodo itin užtikrintas – įrankis tiesiog „apmokytas“ vengti dvejojimo“, – sako I. Rudinskaitė.
Anot ekspertės, dirbtinis intelektas labai gerai atpažįsta kalbos, sakinių ir informacijos pateikimo dėsningumus, todėl jo sugeneruoti atsakymai dažnai skamba itin įtikinamai. Vis dėlto tai dar nereiškia, kad DI iš tiesų supranta informaciją taip, kaip ją supranta žmogus, ar geba savarankiškai įvertinti, kas yra tikslu, o kas – klaidinga.

Dirbtinio intelekto vystymo ypatumai: „Technologija veikia gerai tuomet, kai ji nebestebina“

Didžiausia problema ta, kad tokios klaidos nebūtinai yra akivaizdžios. DI haliucinacijos dažnai pateikiamos labai sklandžiai – su tariamais šaltiniais, įtikinamai skambančiais skaičiais ar neegzistuojančiomis citatomis.
„Jeigu trūksta konteksto ar patikimų šaltinių, dirbtinis intelektas gali pradėti spėlioti. Taip atsiranda haliucinacijos – išgalvoti faktai ar neegzistuojantys šaltiniai, kurie žmogui gali pasirodyti patikimi“, – atkreipia dėmesį ekspertė.
Kaip atpažinti haliucinacijas?
Atpažinti netikslų dirbtinio intelekto sugeneruotą atsakymą ne visada paprasta, tačiau yra keli ženklai, į kuriuos verta atkreipti dėmesį. Įtarimų turėtų kelti atsakymai, kurie skamba labai užtikrintai, tačiau kartu išlieka gana abstraktūs.
Itin didelė klaidų rizika atsiranda tada, kai dirbtiniam intelektui pateikiama per mažai informacijos arba užduodami labai platūs, neaiškūs klausimai.
„Vienas geriausių būdų sumažinti klaidų riziką – neprašyti dirbtinio intelekto „visko iš karto“. Kuo aiškesnė užduotis ir kuo daugiau konteksto pateikiama, tuo mažesnė tikimybė gauti netikslų atsakymą. Labai padeda aiškiai suformuluota užduotis, papildomi dokumentai ar konkretūs šaltiniai, kuriais dirbtinis intelektas turėtų remtis“, – teigia ekspertė.
Kada verta pasitelkti papildomus įrankius?
I. Rudinskaitė sako, kad dirbant su aktualijomis ar greitai besikeičiančia informacija verta naudoti „web search“ funkciją, kuri leidžia dirbtiniam intelektui pasiekti naujausius interneto šaltinius ir remtis ne tik anksčiau turėtais duomenimis.
„Dirbtinio intelekto modeliai ne visada turi naujausią informaciją, todėl kalbant apie teisės aktus, kainas ar naujienas verta papildomai įjungti paiešką internete ir pasitikrinti šaltinius. Vis dėlto svarbu suprasti, kad pati „web search“ funkcija nėra absoliuti apsauga nuo netikslumų – dirbtinis intelektas gali remtis nepatikimais šaltiniais, neteisingai interpretuoti rastą informaciją ar sumaišyti skirtingus šaltinius tarpusavyje. Tai sumažina haliucinacijų riziką, tačiau jos visiškai nepanaikina“, – sako I. Rudinskaitė.
Ji priduria, kad patikimiau veikia principas, kai DIi pateikiame konkretų šaltinį – dokumentą, PDF ar tekstą – ir paprašome atsakyti remiantis tik juo. Praktikoje taip pat padeda aiškios instrukcijos, pavyzdžiui, verta nurodyti atsakyti „nežinau“, jei informacijos nepakanka. Taip pat rekomenduojama sudėtingas užduotis skaidyti į mažesnius žingsnius, nes tai leidžia greičiau pastebėti galimus netikslumus.
Siekdamos išvengti nepatikimos informacijos, vis daugiau organizacijų investuoja ne tik į pačius dirbtinio intelekto sprendimus, bet ir į darbuotojų gebėjimą jais naudotis atsakingai bei efektyviai.
„Tele2“ taip pat aktyviai investuoja į darbuotojų dirbtinio intelekto kompetencijas bei vidinius sprendimus. Bendrovė darbuotojams yra sukūrusi vidinį dirbtinio intelekto asistentą „Tele2 Genie“, kuris naudojamas kasdienėms užduotims, informacijos apdorojimui ir produktyvumui didinti.
Svarbiausia – kritinis mąstymas
Pasak ekspertės, dirbtinis intelektas gali būti puikus pagalbininkas, tačiau galutinę atsakomybę visada prisiima žmogus.
„Jeigu DI sugeneruotas tekstas bus naudojamas viešoje komunikacijoje, priimant verslo sprendimus ar dirbant su klientais, svarbiausius faktus būtina papildomai patikrinti. Dirbtinis intelektas gali padėti greičiau dirbti, tačiau svarbu nepamiršti, jog jis nėra neklystantis ekspertas“, – pabrėžia I. Rudinskaitė.
 

UAB „Lrytas“,
A. Goštauto g. 12A, LT-01108, Vilnius.

Įm. kodas: 300781534
Įregistruota LR įmonių registre, registro tvarkytojas:
Valstybės įmonė Registrų centras

lrytas.lt redakcija news@lrytas.lt
Pranešimai apie techninius nesklandumus pagalba@lrytas.lt

Atsisiųskite mobiliąją lrytas.lt programėlę

Apple App StoreGoogle Play Store

Sekite mus:

Visos teisės saugomos. © 2026 UAB „Lrytas“. Kopijuoti, dauginti, platinti galima tik gavus raštišką UAB „Lrytas“ sutikimą.