„ChatGPT“ meluoja ir neraudonuoja: kaip išvengti DI melo pinklių?

Trys Lietuvą valdę karaliai ir Žemaitijos sostine tapę Mažeikiai – tai tik keletas „ChatGPT“ melagysčių. Pasaulį sužavėjęs dirbtinio intelekto (DI) robotas vis dažniau pagaunamas meluojant, o jį profesionaliai naudojančios bendrovės buvo priverstos atsitraukti ir jo priežiūrą patikėti žmonėms. Vis dėlto ekspertai teigia, kad dėl to kalti per aukšti lūkesčiai – su „ChatGPT“ reikia bendrauti kiek kitaip, nei su žmogumi, o jo pateikiamą informaciją būtina akylai tikrinti.

Pasaulį sužavėjęs dirbtinio intelekto (DI) robotas vis dažniau pagaunamas meluojant, o jį profesionaliai naudojančios bendrovės buvo priverstos atsitraukti ir jo priežiūrą patikėti žmonėms.<br>123rf iliustr.
Pasaulį sužavėjęs dirbtinio intelekto (DI) robotas vis dažniau pagaunamas meluojant, o jį profesionaliai naudojančios bendrovės buvo priverstos atsitraukti ir jo priežiūrą patikėti žmonėms.<br>123rf iliustr.
Daugiau nuotraukų (1)

Lrytas.lt

Jun 27, 2023, 9:52 AM, atnaujinta Jun 28, 2023, 9:24 AM

„Žaibiškai išpopuliarėjęs „ChatGPT“ kone akimirksniu buvo įdarbintas mokinių rašinėlių rašytoju, internetinių portalų žurnalistu ir net socialinių tinklų turinio kūrėju. Deja, nuslūgus pirminei susižavėjimo bangai, pasimatė šio įrankio netobulumai – neturėdamas pakankamai informacijos robotas linkęs fantazuoti, beveik kiekviename tekste švelniai „nusikalbėti“, o pagautas „už rankos“ ir paprašytas pateikti šaltinius – išgalvoti net ir juos. Norint išvengti su tuo susijusių nemalonių situacijų, „ChatGPT“ negalima aklai pasitikėti, kiekvienoje užklausoje reikėtų pateikti kaip įmanoma daugiau konteksto bei jam patikėti ne savarankišką turinio kūrimą, o informacijos struktūrizavimą“, – pataria „Telia“ Skaitmeninės pažangos centro skaitmeninimo ekspertė Diana Gold.

Įtikinamai skambanti nesąmonė

Pasak D.Gold, priežastis, kodėl apie „ChatGPT“ melagystes kalbame praėjus tik daugiau nei pusei metų nuo jo debiuto, yra pokalbio roboto subtilumas. Vykdydamas mūsų užklausas, jis pasitelkia įtikinamai skambančius faktus ir juos pateikia sklandžiu tekstu, sudarydamas klaidingą kompetentingumo įspūdį. Labai dažnai įvairūs netikslumai ir melagystės sudaro pakankamai nedidelę atsakymo dalį, todėl gali būti pastebimi tik įdėmiai skaitant arba toje temoje turint specifinių žinių.

Pavyzdžiui, „ChatGPT“ paklausus, kiek Lietuvoje buvo karalių, DI asistentas atsakys, jog jų buvo trys, ir iš tiesų paminės tris į šį titulą pretendavusius asmenis – Mindaugą, Vytautą Didįjį ir Mindaugą II. Panaši situacija ir pasiteiravus apie Žemaitijos sostinę – robotas atsakys, jog ji yra Mažeikiai, ir savo atsakymą papildys autoritetingai skambančia melagyste, kad tai neva yra vienas pagrindinių miestų Mažeikių apskrityje, nepaisant to, jog tikroji sostinė yra Telšiai, o Mažeikių apskrities Lietuvoje niekada nebuvo.

„Ne ką geriau „ChatGPT“ išmano ir Lietuvos krepšinio temą. Paklausus, kiek kartų Vilniaus „Rytas“ yra laimėjęs LKL, išmanusis įrankis praneš, jog titulų skaičius siekia 14, bei netgi išvardins metus, kuriais neva buvo pasiekti šie laimėjimai. Žinant, jog tikrasis šios komandos laimėtų LKL sezonų skaičius yra daugiau, nei perpus, mažesnis, o pateikti laimėjimų metai – paprasčiausiai išgalvoti, kyla noras paklausti apie šių duomenų šaltinius. Tačiau robotas „sugudraus“ ir tada, įžūliai tvirtindamas, kad „Ryto“ laimėtų čempionatų skaičius yra plačiai pripažintas, o jį galima rasti oficialioje LKL svetainėje“, – eksperimento rezultatais dalinasi D.Gold.

Melagystes lemia keletas priežasčių

Nagrinėdamas galimus „ChatGPT“ melavimo motyvus pašnekovė linkusi akcentuoti šio pokalbio roboto veikimo principą. Siekiant jį paversti maksimaliai universaliu ir taip su plačiomis DI galimybėmis supažindinti kuo daugiau vartotojų, įrankis buvo sukurtas taip, kad pateiktų atsakymus į kuo daugiau klausimų, užuot koncentravęsis į jų faktų teisingumą ir atsisakydamas vartotojui padėti tais atvejais, kai trūksta patikimų duomenų.

Nuo to jau spėjo nudegti vieno didžiausių JAV technologijų portalo „CNET“ redakcija, peržiūrėjusi 70 šiemet savo portale DI parašytų straipsnių ir daugiau, nei pusėje, radusi klaidų. Tai ją pastūmėjo atsitraukti ir šio DI modelio sukompiliuotų tekstų nebepublikuoti be redaktoriaus peržiūros.

„Tokias klaidas lemia ir šiuo metu naudojami pokalbių roboto treniravimo ypatumai. Ne paslaptis, jog „ChatGPT“ mokymui buvo pasitelkti itin dideli internete sklandančios informacijos kiekiai, kurios saugojimas tekstiniu formatu būtų labai brangus. Dėl šios priežasties šie duomenys buvo apdoroti ir suspausti iki skaičių, bet ne atsitiktinai, o pagal latentinės erdvės principą. Kalbant paprasčiau, „ChatGPT“ buvo mokomas suprasti ne tai, kas tiksliai yra apelsinas, o tai, kad apelsinas yra arčiau citrinos, nei vynuogės, ar juo labiau automobilio. Būtent todėl „ChatGPT“ beveik visada pataiko į temą, bet nebūtinai atsako tiksliai“, – aiškina ekspertė.

Taip pat svarbu nepamiršti, kad įtakos turi ir kalba, kuria pokalbių robotui užduodame klausimus. Ne paslaptis, jog dėl mažesnio duomenų kiekio lietuvių kalba, klausiant lietuviškai, įrankio galimybės kokybiškai atsakyti į klausimą smarkiai sumažėja ir informaciją jam tenka versti iš šaltinių anglų kalba. Taip atsakymuose gali įsivelti papildomų klaidų dėl terminų neatitikimo ir kitų vertimo netikslumų.

„ChatGPT“ naudingas, tačiau reikalauja įgudimo

D.Gold teigimu, nepaisant polinkio „nukrypti į lankas“, „ChatGPT“ vis tiek gali būti labai naudingas ir smarkiai palengvinti kasdienes užduotis. Tiesiog norint išnaudoti šio dirbtinio intelekto potencialą reikia suvokti jo dabartinį ribotumą ir atitinkamai parinkti jam skiriamus darbus. „Telia“ Skaitmeninės pažangos centro skaitmeninimo ekspertė pateikia keturis patarimus, kurie su „ChatGPT“ padės dirbti efektyviau:

Kuo detaliau formuluokite užduotis. Detalesni klausimai/užklausos DI modeliui duoda daugiau konteksto, todėl sumažėja galimybių improvizuoti ir suklysti.

Nevenkite patikslinančių klausimų ir stebėkite, ar nėra nukrypstama nuo pagrindinės minties. Jei atsakymuose pradedama atsiprašinėti, ar sakyti kitą nuomonę, geriau tokiais atsakymais nepasitikėti.

Aklai nepasitikėkite pateikiamais atsakymais, ypač jei kalba eina apie tikslius skaičius ar faktus. Juos reikia tikrinti bent keliuose šaltiniuose, nes „ChatGPT“ gali būti linkęs juos išgalvoti.

Nenaudokite „ChatGPT“ pateiktų atsakymų viešai ir nesiųskite kitiems asmenims, prieš tai jų neperžiūrėjus žmogui. Pokalbių robotas dar negali visavertiškai veikti be žmogaus įsitraukimo.

„Geriausia „ChatGPT“ pasitelkti, kai reikia struktūrizuoti esamą informaciją arba punktais išdėstytus teiginius paversti sklandžiu tekstu. Taip pat jis gali padėti tais atvejais, kai reikia sugalvoti prezentacijos struktūrą ar sudėlioti verslo planą, bei tada, kai stokojama minčių, kaip atrašyti į elektroninį laišką. Trumpai tariant – kol kas „ChatGPT“ vis dar yra labiau mechaninį darbą palengvinantis asistentas, nei savarankiškas ir už mus darbus nudirbti galintis kolega“, – reziumuoja specialistė.

Norėdami komentuoti turite prisijungti.

UAB „Lrytas“,
A. Goštauto g. 12A, LT-01108, Vilnius.

Įm. kodas: 300781534
Įregistruota LR įmonių registre, registro tvarkytojas:
Valstybės įmonė Registrų centras

lrytas.lt redakcija news@lrytas.lt
Pranešimai apie techninius nesklandumus pagalba@lrytas.lt

Atsisiųskite mobiliąją lrytas.lt programėlę

Apple App Store Google Play Store

Sekite mus:

Visos teisės saugomos. © 2024 UAB „Lrytas“. Kopijuoti, dauginti, platinti galima tik gavus raštišką UAB „Lrytas“ sutikimą.