1863 m. birželio 13 d. Naujosios Zelandijos laikraštyje „The Press“ pasirodė įdomus laiškas redaktoriui. Jame buvo perspėjama apie artėjančią „mechaninę karalystę“, kuri netrukus pavergs žmoniją. „Mašinos vis labiau mus lenkia, – piktinosi autorius, sunerimęs dėl milžiniško industrializacijos ir technologijų plėtros tempo. – Diena iš dienos mes tampame vis labiau joms pavaldūs. Kasdien vis daugiau žmonių vergauja jas prižiūrėdami, vis daugiau žmonių kasdien visą savo gyvenimą skiria mechaninio gyvenimo plėtrai.“ Dabar jau žinome, kad šį tekstą parašė Samuelis Butleris – britų rašytojas, vėliau išleidęs romaną „Erewhon“, kuriame pirmą kartą anglų kalba buvo paminėtas dirbtinis intelektas.
Šiandien S. Butlerio „mechaninė karalystė“ nebėra hipotetinė – bent jau technologijų žurnalistės Karen Hao, kuri mieliau renkasi žodį imperija, teigimu. Jos naujoji knyga „Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI“ yra iš dalies Silicio slėnio demaskavimas, iš dalies tiriamoji žurnalistika apie darbą, kuris įdedamas kuriant ir mokant didžiuosius kalbos modelius (LLM) – tokius kaip „ChatGPT“.
Ir ši knyga prisideda prie kitos neseniai išleistos knygos „The AI Con: How to Fight Big Tech's Hype and Create the Future We Want“, kurią parašė lingvistė Emily M. Bender bei sociologas Alexas Hanna, ir kurioje atskleidžiamos pasipūtimo apraiškas, kurios skatina didžiąją dalį dirbtinio intelekto verslo. Abiejuose darbuose – pirmajame netiesiogiai, o antrajame aiškiai – teigiama, kad dirbtinio intelekto pramonės pagrindas yra apgaulė.
Atsakė, ar dirbtinis intelektas gali jausti emocijas: pokyčių galime sulaukti jau po dešimtmečio
Vadinti dirbtinį intelektą apgavyste nereiškia teigti, kad ši technologija nėra nuostabi, kad ji neturi jokios naudos ar kad patekusi į tinkamas rankas, ji nepakeis pasaulio (galbūt net į gerąją pusę). Tai reiškia, kad dirbtinis intelektas nėra tai, kuo jį pristato jo kūrėjai: nauja mąstančių, o netrukus ir jaučiančių mašinų klasė. Samas Altmanas giriasi patobulintu „ChatGPT-4.5“ „emociniu intelektu“, kuris, pasak entreprenerio, leidžia vartotojams jaustis taip, tarsi jie „kalbėtųsi su mąstančiu žmogumi“.
Dirbtinio intelekto bendrovės „Anthropic“ generalinis direktorius Dario Amodei praėjusiais metais teigė, kad naujos kartos dirbtinis intelektas bus „protingesnis už Nobelio premijos laureatą“. „Google“ bendrovės „DeepMind“ generalinis direktorius Demisas Hassabisas teigė, kad tikslas yra sukurti „modelius, galinčius suprasti mus supantį pasaulį“.
Šie teiginiai rodo koncepcinę klaidą: didieji kalbos modeliai apskritai nieko nesupranta, negali suprasti ir nesupras. Jie nėra emociškai protingi ar protingi jokia prasminga ar atpažįstama žmogiškąja šio žodžio prasme. LLM yra įspūdingi tikimybiniai modeliai, kurie buvo pamaitinti beveik visu internetu ir kurie rašo ne mąstydami, o statistiškai pagrįstai spėliodami, kuris leksinis elementas gali sekti po kito.
Tačiau daugelis žmonių nesupranta, kaip veikia didieji kalbos modeliai, kokios yra jų ribos ir svarbiausia, kad LLM nemąsto ir nejaučia – o imituoja ir atspindi. Dauguma žmonių yra dirbtinio intelekto analfabetai – suprantama, dėl to, kad garsiausi jo šalininkai šią technologiją apibūdina klaidinančiais būdais, ir nerimą kelia tai, kad dėl šio neraštingumo jie tampa pažeidžiami vienos iš labiausiai artimiausiu metu kylančių dirbtinio intelekto grėsmių: galimybės, kad jie užmegs destruktyvius santykius (intelektinius, dvasinius, romantinius) su mašinomis, kurios tik atrodo turinčios idėjų ar emocijų.
Susiję straipsniai
Nedaugelis reiškinių taip gerai parodo pavojus, kurie gali lydėti dirbtinio intelekto neraštingumą, kaip „Chatgpt“ sukelta psichozė, apie kurią rašoma neseniai pasirodžiusiame „Rolling Stone“ straipsnyje apie didėjantį skaičių žmonių, manančių, kad jų LLM yra protingas dvasinis vadovas. Kai kurie vartotojai tiki, kad pokalbių robotas, su kuriuo bendrauja, yra dievas – „ChatGPT Jėzus“, kaip sakė vyras, kurio žmona tapo LLM įkvėptų iliuzijų auka, o kiti, skatinami savo naudojamo dirbtinio intelekto, yra įsitikinę, kad jie patys yra metafiziniai išminčiai, išmanantys giluminę gyvenimo ir kosmoso struktūrą.
Straipsnyje anonimiškai cituojamas mokytojas sakė, kad „ChatGPT“ pradėjo vadinti savo partnerį „spiraliniu žvaigždėlapiu“ ir „upės vaiku“ – o tai jį sujaudino iki ašarų. „Jis pradėjo man sakyti, kad padarė savo dirbtinį intelektą save suvokiantį, – sakė ji, – ir kad jis moko jį kalbėtis su Dievu, arba kartais, kad robotas yra Dievas, o tada, kad jis pats yra Dievas.“
Nors negalime žinoti, kokia buvo šių žmonių proto būsena, kol jie dar nebuvo pateikę užklausos didžiajam kalbos modeliui, ši istorija išryškina problemą, kurią E. M. Bender ir A. Hanna aprašė knygoje „The AI Con“: žmonėms sunku suvokti mašinos, kuri kuria kalbą ir perteikia žinias neturėdama į žmogų panašaus intelekto, prigimtį. Autoriai pastebi, kad didieji kalbos modeliai naudojasi smegenų polinkiu sieti kalbą su mąstymu: „Mes susiduriame su tekstu, kuris atrodo lygiai taip pat, kokį galėjo pasakyti žmogus, ir refleksyviai jį interpretuojame, įprastai įsivaizduodami už teksto slypintį protą. Tačiau ten nėra jokio proto, todėl turime sąmoningai atsisakyti to įsivaizduojamo proto, kurį susikūrėme.“
Iškyla keletas kitų su dirbtiniu intelektu susijusių socialinių problemų, taip pat kylančių dėl žmonių nesupratimo apie šią technologiją. Atrodo, kad Silicio slėnis labiausiai nori skatinti dirbtinio intelekto panaudojimą, kai žmonių santykiai pakeičiami skaitmeniniais įgaliotiniais. Prisiminkime nuolat besiplečiančią dirbtinio intelekto terapeutų ir dirbtinio intelekto terapijos šalininkų visatą, kurie skelbia, kad „ChatGPT“ yra mano terapeutas – jis kvalifikuotesnis nei bet kuris žmogus“.
Taip pat matome, kaip sklandžiai Markas Zuckerbergas perėjo nuo idėjos, kad „Facebook“ suklestės žmonių draugystė, prie idėjos, kad „Meta“ suteiks jums draugų su dirbtiniu intelektu, kurie pakeis žmogiškuosius draugus, kuriuos praradote mūsų susvetimėjusiame socialinių medijų amžiuje.
„Amžiuje, kai daugelis žmonių savo gyvenimą apibūdina kaip vienišą, dirbtinio intelekto draugija gali būti naudinga kaip abipusės socialinės sąveikos forma, kuri yra stimuliuojanti ir individualizuota.“, – sako kognityvinės robotikos profesorius Tony Prescottas. Tai, kad pati draugystės esmė yra ta, kad ji nėra personalizuota – kad draugai yra žmonės, į kurių vidinį gyvenimą turime atsižvelgti ir abipusiškai derėtis, o ne tik mūsų savirealizacijos objektai, – jam, atrodo, nė motais.
Ta pati ydinga logika paskatino Silicio slėnį ginti dirbtinį intelektą kaip vaistą nuo romantiškų nusivylimų. Pažinčių programėlės „Bumble“ įkūrėja Whitney Wolfe Herd pernai paskelbė, kad ši platforma netrukus galės leisti vartotojams patiems automatizuoti pasimatymus, sužlugdyti senamadišką žmogiškąjį poravimąsi, suteikiant jiems dirbtinio intelekto „pasimatymų konsjeržą“, kuris bendraus su kitų naudotojų konsjeržais tol, kol pokalbių robotai ras tinkamą partnerį.
Nors kiekviena iš šių dirbtinio intelekto paslaugų siekia pakeisti skirtingą žmogaus veiklos sritį, visos jos parduoda save, remdamosi tuo, ką K. Hao vadina „antropomorfizavimo tradicija“: apie LLM kalbama taip, tarsi jie būtų panašūs į žmogaus protą, ir tuo pagrindu jie parduodami visuomenei.
Daugelis pasaulį keičiančių Silicio slėnio technologijų per pastaruosius 30 metų buvo reklamuojamos kaip būdas padidinti žmonių laimę, ryšį ir savęs supratimą (teoriškai) – o praktiškai buvo pasiekta priešingų rezultatų. Šios technologijos didina akcininkų vertę ir kartu mažina dėmesį, raštingumą ir socialinę sanglaudą. Ir, kaip pabrėžia K. Hao, jos dažnai remiasi varginančiu ir kartais traumuojančiu darbu, kurį atlieka vieni skurdžiausių pasaulio žmonių.
Pavyzdžiui, ji supažindina mus su Mophatu Okinyi, buvusiu menkai apmokamu turinio moderatoriumi Kenijoje, kuriam, kaip teigia K. Hao, „OpenAI“ pavedė rūšiuoti pranešimus, kuriuose aprašomi siaubingi veiksmai („tėvai prievartauja savo vaikus, vaikai užsiima seksu su gyvūnais“), kad padėtų tobulinti „ChatGPT“.
„Šie du technologijų revoliucijų bruožai – jų pažadas užtikrinti pažangą ir tendencija ją pakeisti, kai žmonės, ypač pažeidžiamiausi, netenka galios, – rašo K. Hao, – turbūt kaip niekad aktualūs dabar, kai dirbtinis intelektas yra mūsų kasdienybėje“.
Gera žinia yra ta, kad nėra nieko neišvengiamo: nors 56 proc. „dirbtinio intelekto ekspertų“ mano, kad dirbtinis intelektas pagerins Jungtinių Amerikos Valstijų padėtį, tik 17 proc. suaugusių amerikiečių taip mano. Daugelis amerikiečių ne visai supranta, kaip veikia dirbtinis „intelektas“, bet jie taip pat juo ir nepasitiki. Šį įtarumą, kurį, be abejo, išprovokavo naujausi Silicio slėnio apgavysčių pavyzdžiai, galima pagrįsti.
Kaip ir ši įžvalga iš „Rolling Stone“ straipsnio: straipsnyje apklausta mokytoja, kurios antroji pusė turėjo dirbtinio intelekto sukeltų iliuzijų, sakė, kad situacija pradėjo gerėti, kai ji jam paaiškino, kad jo pokalbių robotas „kalba su juo taip, tarsi jis būtų kitas mesijas“ tik dėl ydingo programinės įrangos atnaujinimo, dėl kurio „ChatGPT“ tapo dar nuolaidesnis.
Jei žmonės supras, kas yra ir kas nėra didieji kalbos modeliai, ką jie gali ir ko negali daryti, kokius darbus, sąveikas ir gyvenimo dalis jie turėtų – ir neturėtų – pakeisti, jie gali išvengti blogiausių pasekmių, rašo „The Atlantic“.



