Konflikto esmė paprasta. Modelis „Claude“ naudojamas gynybos srityje. JAV vyriausybė siekė panaikinti ribojimus, draudžiančius naudoti sistemą masinei stebėsenai ar autonominiams ginklams. Įmonės vadovas Dario Amodei atsisakė tai daryti, remdamasis saugumo principais.
Po šio nesutarimo prezidentas Donaldas Trumpas nurodė federalinėms agentūroms nutraukti bendradarbiavimą su įmone, o Pentagonas ją paskelbė „tiekimo grandinės rizika“. Šiuo metu galioja pereinamasis laikotarpis, per kurį sistemos turi būti pakeistos.
Įdomu tai, kad 2026 m. vasario 28 d. „Claude“ programėlė pakilo į pirmą vietą JAV „App Store“ nemokamų programėlių reitinge, aplenkdama „ChatGPT“. Kitaip tariant, dalis vartotojų savo pasirinkimu parodė poziciją šiame ginče.
„OpenAI“, „ChatGPT“ kūrėjai, taip pat paskelbė tris „raudonąsias linijas“: jokios masinės vidaus stebėsenos, jokio autonominių ginklų valdymo ir jokių aukštos rizikos automatizuotų sprendimų. Tačiau klausimas lieka tas pats – kas ir kaip realiai patikrina, kur tos ribos įdiegtos? Jei yra politinis susitarimas, technologijos gali būti panaudotos labai plačiai.
Ką tai reiškia mums?
„OpenAI“ skelbia, kad „ChatGPT“ turi daugiau nei 900 mln. aktyvių vartotojų per savaitę ir daugiau nei 50 mln. mokančių prenumeratorių. Tai milžiniški duomenų kiekiai. Pagalvokite, ką patys esate kėlę į generatyvinius įrankius? Rašėte darbo laiškus? Kėlėte ataskaitas, analizavote vidinius organizacijos duomenis? Gal įkėlėte savo ar savo šeimos narių sveikatos tyrimų rezultatus? Visa tai – jautri informacija.
Melburno universiteto tyrimas, apėmęs 47 šalis ir daugiau nei 32 tūkst. respondentų, parodė, kad 58 proc. darbuotojų naudoja generatyvinius įrankius darbe. Beveik pusė jų tai darė būdais, kurie galėtų būti laikomi netinkamais. 63 proc. teigė matę kolegas naudojant dirbtinį intelektą netinkamai.
Tai reiškia, kad mažiausiai pusė vartotojų įrankius naudoja neįvertinę pasekmių sau ar organizacijai. Taigi, paprastas patarimas – jei informacija nesidalintumėte su nepažįstamu žmogumi ar konkurentu, jos nereikėtų kelti ir į generatyvinį įrankį, prieš tai neapribojus aiškiais saugikliais.
Didelė problema – vadinamasis šešėlinis dirbtinio intelekto naudojimas. Jei esate vadovas, tikėtina, kad dalis darbuotojų neatskleidžia, kaip naudoja šiuos įrankius. Tyrimas rodo, kad 61 proc. vengia pasakyti, kada naudojo dirbtinį intelektą, 55 proc. pateikia sugeneruotą turinį kaip savo, o 66 proc. įrankius naudojo nežinodami, ar tai apskritai leidžiama. Toks, nematomas, naudojimas didina rizikas ir apsunkina jų valdymą. Dažniausiai priežastis paprasta – trūksta aiškių taisyklių ir mokymų. Nors generatyviniai įrankiai paplitę, tik nedidelė dalis organizacijų turi aiškią jų naudojimo politiką.
Spaudimas naudoti dirbtinį intelektą yra realus. Žmonės bijo atsilikti. Tačiau baimė neturi tapti paskata naudoti įrankius be jokių ribų. Visa istorija apie „Anthropic“, „OpenAI“ ir JAV politiką – tik ledkalnio viršūnė. Generatyviniai įrankiai savaime nėra nei geri, nei blogi, bet jie fiksuoja mūsų pėdsakus interneto platybėse.
Ką daryti? Aiškiai atskirkite, kokius duomenis galite kelti, o kokių – ne. Jei informacija jautri teisiškai, reputacine ar verslo prasme, ji neturi atsidurti modelyje be aiškių apsaugų. Jei esate vadovas, draudimas neveiks. Veiks aiškios, paprastos taisyklės ir mokymai.
Ir svarbiausia – patogumas visada konkuruoja su saugumu. Šią pusiausvyrą teks rinktis sąmoningai. Brandumas šiandien reiškia ne vengti įrankių, o suprasti jų ribas ir veikti apgalvotai.
