Dirbtinio intelekto amžius: nebrangių dronų žudikų gali griebtis ir kerštaujantys meilužiai

Ar turėtume nerimauti dėl dirbtinio intelekto? „Tam tikra prasme turėtume“, – sako Masačusetso technologijos instituto fizikas Maxas Tegmarkas. M. Tegmarkas drauge su kolegomis įkūrė Gyvybės ateities institutą, tiriantį pasaulinę katastrofų riziką. 

Dirbtinis intelektas – ir grėsmingas, ir naudingas.<br> 123rf nuotr.
Dirbtinis intelektas – ir grėsmingas, ir naudingas.<br> 123rf nuotr.
Dirbtinis intelektas – ir grėsmingas, ir naudingas.<br> 123rf nuotr.
Dirbtinis intelektas – ir grėsmingas, ir naudingas.<br> 123rf nuotr.
Daugiau nuotraukų (2)

Lrytas.lt

Mar 27, 2019, 1:28 PM

Šis institutas ypatingą dėmesį skiria dirbtiniam intelektui. Neseniai į lietuvių kalbą išversta pasaulyje bestseleriu tapusi M. Tegmarko knyga „Gyvybė 3.0“ (vertėja Daiva Vilkelytė, „Tyto alba“). 

Kokios ateitis mūsų laukia? Ar antžmogiškas intelektas taps mūsų vergu, ar valdovu? Kaip galime padidinti savo gerovę, pasitelkdami dirbtinį intelektą ir kartu neatimdami iš žmonių pajamų bei gyvenimo prasmės? Kaip galime būti tikri, kad ateityje dirbtinio intelekto sistemos elgsis paklusniai, nesukils prieš mus, neges ir bus atsparios programišių atakoms? Ar dirbtinis intelektas padės gerovei suklestėti kaip niekada anksčiau, o gal mašinos visose srityse aplenks mus ir galiausiai atsikratys mūsų kaip nebereikalingų?

Dirbtinis intelektas – šiuo metu pati svarbiausia ir įdomiausia mokslininkus ir visuomenę jaudinanti tema. Ypač tai svarbu jauniems žmonėms, kuriems neišvengiamai teks gyventi drauge su dirbtiniu intelektu. „Gyvybė 3.0“ suteikia mums postūmį mąstymui ir žinių, kad galėtume susidaryti nuomonę, kas mūsų visų laukia.

Siūlome ištrauką iš M. Tegmark knygos „Gyvybė 3.0“.

* * *

Kaip išvengti robotų žudikų? 

Dirbtinio intelekto ir robotikos tyrėjų atviras laiškas

Autonominiai ginklai pasirenka ir puola taikinius be žmogaus įsikišimo. Tai gali būti, pavyzdžiui, ginkluoti sraigtasparniai, kurie gali rasti ir sunaikinti žmones, atitinkančius tam tikrus iš anksto nustatytus požymius, o ne nuotoliniu būdu valdomos sparnuotosios raketos arba orlaiviai, kur visus sprendimus apie taikinius priima žmonės. Dirbtinio intelekto (DI) technologijos pasiekė tašką, kai tokių sistemų diegimas praktiškai, jei ne teisiškai, įmanomas jau per kelerius metus, nebe dešimtmečius, o rizika didelė: autonominiai ginklai yra apibūdinami kaip trečioji karybos revoliucija, po parako ir branduolinių ginklų išradimo. 

Išsakyta nemažai argumentų už ir prieš autonominius ginklus, pavyzdžiui, kad verta žmones kareivius pakeisti mašinomis, sumažinant žmonių aukų, bet pavojinga nuleisti kartelę, dėl kurios pradedamas karas. Pagrindinis klausimas šiandienos žmonijai yra toks: pradėti pasaulines DI ginklavimosi varžybas ar jas užkardyti. Jei bet kuri didelė karinė galia toliau spartintų DI ginklų plėtrą, pasaulinių ginklavimosi varžybų faktiškai nepavyktų išvengti, o šios technologinės trajektorijos padariniai akivaizdūs: autonominiai ginklai taps rytojaus kalašnikovais. 

Skirtingai nuo branduolinės ginkluotės, DI ginklams neprireiks brangių ir sunkiai gaunamų žaliavų, todėl jie paplis visur – nebrangiai ir masiškai juos gamins visos kariškai reikšmingos valstybės. Ir liks tik laiko klausimas, kada tie ginklai pasirodys juodojoje rinkoje ir teroristų, diktatorių, norinčių dar labiau pažaboti savo gyventojus, etninį valymą rengiančių karo vadukų bei jų bendrų rankose.  Autonominiai ginklai puikiai tinka norint vykdyti žmogžudystes, destabilizuoti tautas, pavergti gyventojus ir selektyviai sunaikinti tam tikrą etninę grupę. Todėl mes manome, kad karinės DI ginklavimosi varžybos nebūtų naudingos žmonijai. Daugybe būdų DI gali mūšio laukus padaryti saugesnius žmonėms, ypač civiliams, nesukurdamas naujų žmonių žudymo įrankių.

Kaip ir dauguma chemikų ir biologų nėra suinteresuoti kurti cheminius ar biologinius ginklus, diduma DI tyrėjų taip pat nėra suinteresuoti kurti DI ginklus. Jie nenori, kad atėjūnai terštų šią sritį kurdami ginklus ir savo veiksmais galimai prisidėtų prie smarkaus visuomenės pasipriešinimo, kuris savo ruožtu apribotų būsimą DI naudą visuomenei. Chemikai ir biologai plačiai palaiko tarptautinius susitarimus, sėkmingai uždraudusius cheminius ir biologinius ginklus, dauguma fizikų pritarė sutartims, uždraudusioms kosminius branduolinius ginklus ir apakinančius lazerinius ginklus.

Kad būtų sunkiau nekreipti dėmesio į mūsų susirūpinimą kaip girdimą vien verkšlenančių pacifistų gretose, norėjau, kad šį laišką pasirašytų kuo daugiau garsiausių DI ir robotikos tyrėjų. Tarptautinė robotikos ginklų kontrolės kampanija jau buvo sukaupusi šimtus parašų, remiančių reikalavimą uždrausti robotų žudikų gamybą, tad maniau, kad galime surinkti dar daugiau. Žinojau, kad profesionalų organizacijos nenorės dalytis milžiniškais savo narių elektroninių pašto adresų sąrašais su iniciatyva, kurią galima suprasti kaip politinę. 

Todėl sujungiau internete rastuose dokumentuose aptiktus mokslininkų bei institucijų sąrašus ir paskelbiau uždavinį atrasti jų elektroninio pašto adresus MTurk – Amazon Mechanical Turk visuomenės patalkos platformoje. Dauguma tyrėjų elektroninių pašto adresų yra skelbiami jų universitetų tinklalapiuose, tad po 24 valandų, sumokėjęs 54 JAV dolerius, buvau išdidus šimtų DI tyrėjų elektroninių pašto adresų sąrašo savininkas. Jų adresatai tiko būti išrinkti Dirbtinio intelekto plėtros asociacijos (DIPA) nariais. 

Vienas iš jų – britų ir australų DI profesorius Toby Walshas – maloniai sutiko persiųsti mūsų elektroninį laišką visiems kitiems sąrašo tyrėjams ir vadovauti mūsų kampanijai. MTurk darbuotojai visame pasaulyje nepailsdami siuntė papildomų adresų sąrašus Toby, o netrukus daugiau kaip 3000 DI tyrėjų ir robotikos mokslininkų pasirašė mūsų atvirą laišką, įskaitant ir šešis ankstesnius DIPA pirmininkus bei DI pramonės lyderius iš Google, Facebook, Microsoft ir Tesla.

GAI savanorių kariuomenė nepaliaujamai triūsė tvirtindama pasirašiusiųjų sąrašus, pašalindama apgaulingus įrašus, tokius kaip Billas Clintonas ir Sarah Connor. Pasirašė ir per 17 000 kitų bendraminčių, tarp jų ir Stephenas Hawkingas, o kai Tarptautinėje jungtinėje dirbtinio intelekto konferencijoje Toby ta tema surengė dar ir spaudos konferenciją, ji tapo svarbiausia viso pasaulio naujiena.

Kadangi biologai ir chemikai jau kartą buvo pareiškę savo poziciją, jų sritys dabar daugiausia garsėja kaip kuriančios naudingus vaistus ir medžiagas, o ne biologinius ar cheminius ginklus. DI ir robotikos bendruomenės taip pat tarė žodį: pasirašiusieji pareiškė norį, kad jų sritys būtų žinomos kaip kuriančios geresnę ateitį, o ne naujus būdus žudyti žmones. Bet ar ateityje svarbiausi DI vartotojai bus civiliai, ar kariškiai? 

Nors šiame skyriuje daugiau puslapių skyrėme pirmiesiems, jau netrukus galime išleisti daugiau pinigų antriesiems, ypač jei prasidės karinio DI ginklavimosi varžybos. Investiciniai įsipareigojimai taikios paskirties DI 2016 m. viršijo milijardą JAV dolerių, tačiau palyginus su Pentagono fiskaline 2017 m. biudžeto paraiška 12–15 milijardų JAV dolerių DI projektams jis atrodo menkutis. Kinija ir Rusija tikriausiai atkreipė dėmesį į gynybos sekretoriaus pavaduotojo Roberto Worko žodžius, kai jis paskelbė: „Noriu, kad mūsų konkurentams būtų įdomu, kas slepiasi už juodosios uždangos.“

Ar reikia tarptautinio susitarimo?

Nors šiuo metu tarptautiniu mastu aktyviai siekiama derybų dėl tam tikros sutarties, draudžiančios robotus žudikus, vis dar neaišku, ar jos pavyks. Be to, vyksta nuolatinė karšta diskusija, kas ir kaip turėtų vykti. Nors nemažai svarbiausių suinteresuotų pusių atstovų sutinka, kad galingiausios pasaulio valstybės turėtų parengti kokias nors tarptautines taisykles, reguliuojančias automatinių ginklų sistemų (AGS) tyrimus ir naudojimą, mažiau sutariama, ką konkrečiai reikėtų uždrausti ir kaip tokie draudimai būtų prižiūrimi. 

Pavyzdžiui, ar reikėtų uždrausti vien mirtinus autonominius ginklus ar ir ginklus, kurie smarkiai sužeidžia žmones, tarkim, juos apakindami? Ar uždrausti plėtrą ir gamybą, ar nuosavybę? Ar draudimas turėtų būti taikomas visoms autonominėms ginklų sistemoms, ar, kaip parašyta mūsų laiške, tik puolamosioms, neuždraudžiant autonominių priešlėktuvinių ir priešraketinių gynybos sistemų? Šiuo atveju – ar galima būtų laikyti gynybinėmis tokias AGS, kurias lengva perkelti į priešo teritoriją? Ir kaip priversti vykdyti sutartį, jei dauguma autonominio ginklo dėmenų yra dvejopo, taip pat ir civilinio naudojimo? Pavyzdžiui, nėra didelio skirtumo tarp bepilotės skraidyklės, kuri pristato Amazon siuntinius, ir tos, kuri gali pristatyti bombas.

Kai kurie diskusijos dalyviai teigia, kad sukurti veiksmingą AGS sutartį yra beviltiškai sunku, todėl neverta nė bandyti. Kita vertus, Johnas F. Kennedy, paskelbdamas Mėnulio misijas, pabrėžė, kad verta imtis sunkių dalykų, kurių sėkmė gerokai pasitarnautų žmonijos ateičiai. Be to, daugelis ekspertų teigia, kad biologinį ir cheminį ginklus verta buvo uždrausti, nors laikytis susitarimų buvo sunku dėl paplitusio sukčiavimo, bet draudimas pažeidėjams reiškė viešą gėdos stulpą ir varžė jų veiksmus.

2016 m. viename renginyje susitikau su Henry Kissingeriu, tad turėjau progą pasiklausinėti apie jo vaidmenį uždraudžiant biologinius ginklus. Jis paaiškino, kaip tuomet, kai buvo JAV nacionalinio saugumo patarėju, jam pavyko įtikinti prezidentą Nixoną, kad draudimas būtų naudingas JAV nacionaliniam saugumui. 

Nustebau, kad sulaukęs devyniasdešimt dvejų Kissingeris tokio aštraus proto ir atminties, ir buvau sužavėtas išgirdęs tų įvykių dalyvio mintis. Kadangi JAV jau buvo pasaulinė supergalia dėl savo įprastinių ir branduolinių pajėgų, pasaulinėse biologinių ginklų varžybose ji turėjo daugiau ko prarasti, nei išlošti, nes rezultatas nebuvo aiškus. Kitaip tariant, jei jau esi viršiausias, prasminga vadovautis maksima „kol nesugedo, netaisyk“.

Stuartas Russellas po vakarienės prisijungė prie mūsų šnektelti, ir mes apsitarėme, kaip tokį patį argumentą galėtume pritaikyti mirtiniems autonominiams ginklams: iš ginklavimosi varžybų daugiausia išloštų ne supervalstybės, o mažos žlugusios valstybės ir nevalstybiniai veikėjai, pavyzdžiui, teroristai, perkantys jau sukurtus ginklus juodojoje rinkoje.

Pradėti masiškai gaminti, maži DI valdomi dronai žudikai greičiausiai kainuotų vos truputį daugiau už išmanųjį telefoną. Ir teroristui, besikėsinančiam nužudyti politiką, ir apgautam meilužiui, trokštančiam atkeršyti savo buvusiai merginai, viso labo tereikėtų dronui žudikui nusiųsti aukos nuotrauką ir adresą.

Tada dronas nuskristų į paskirties vietą, nustatytų ir pašalintų asmenį, o paskui susinaikintų – taip niekas nesužinotų, kas padarė nusikaltimą. Kitas tokio ginklo panaudojimo būdas tinka etninio valymo apologetams – jį galima lengvai užprogramuoti žudyti tik tam tikros odos spalvos ar etninės kilmės žmones. Stuarto manymu, kuo tokie ginklai taps protingesni, tuo mažiau medžiagų, ugnies galios ir pinigų kainuos žudyti. 

Pavyzdžiui, jis baiminasi kamanių dydžio dronų, kurie galėtų žudyti pigiai, naudodami vien minimalią ugnies galią ir šaudami žmogui į akį, kuri yra gana minkšta ir nesutrukdytų net mažytei kulkai pasiekti smegenis. Arba jie galėtų įsikibti į žmogaus galvą metalinėmis letenėlėmis ir nukreipę į ją nediduką sprogmenį suskaldyti kaukolę. Jei milijoną tokių dronų žudikų būtų galima paleisti iš vieno sunkvežimio, jo savininkas turėtų siaubingą, visiškai naujos rūšies masinio naikinimo ginklą. Ginklą, galintį pasirinktinai žudyti tik jam nurodytos kategorijos žmones, palikdamas visą kitą gyvą ir negyvą aplinką nepaliestą.

Dažniausiai reiškiama priešinga nuomonė, kad tokias baimes galėtume numaldyti sukurdami etiškus robotus žudikus, pavyzdžiui, tokius, kurie žudytų tik priešo kareivius. Bet jei nerimaujame, ar sugebėsime visiškai uždrausti DI ginklus, įgyvendinti reikalavimą, kad priešo autonominiai ginklai būtų 100 proc. etiški, gali pasirodyti gerokai sunkiau. Ar kas nors gali nuosek­liai teigti, jog gerai apmokyti civilizuotų šalių kariai taip blogai laikosi karo taisyk­lių, kad robotai tai už juos padarys geriau, ir kartu tvirtinti, kad nesąžiningos šalys, diktatoriai ir teroristų grupės taip gerai laikosi karo taisyk­lių, jog niekada nepanaudos robotų toms taisyklėms pažeisti?

Kibernetinis karas 

Dar viena įdomi karinė DI savybė ta, kad dirbtinis intelektas gali padėti užpulti priešą jums net nekuriant nuosavų ginklų, o pasinaudojant kibernetine ataka. Kaip maža preliudija į tai, kas gali nutikti ateityje, yra Stuxnet virusas, kurį, manoma, sukūrusios JAV ir Izraelio vyriausybės, jis užkrėtė greitai besisukančias Irano urano sodrinimo programos centrifugas ir privertė jas susiplėšyti. 

Kuo labiau automatizuota taps visuomenė ir kuo galingesnis darysis ją puolantis DI, tuo baisesnių padarinių turės kibernetinis karas. Jei galėsite įsilaužti ir sudaužyti priešininkų savaeigius automobilius, bepiločius lėktuvus, branduolinius reaktorius, pramoninius robotus, ryšių sistemas, finansines sistemas ir elektros tinklus, visiškai sužlugdysite priešo ekonomiką ir parklupdysite jo gynybą. O jei galėtumėte sugadinti ir kurias nors jo ginklų sistemas – dar geriau.

Šį skyrių pradėjome apžvelgdami, kokių įspūdingų artimos ateities galimybių turi DI žmonijai praturtinti – jei mums pavyktų tą intelektą padaryti atsparų ir nepažeidžiamą. Nors patį DI galima panaudoti kuriant atsparesnes DI sistemas, taip sustiprinant kibernetinę gynybą, lygiai taip pat DI neabejotinai gali padėti ir kibernetiniam puolimui. Laiduoti, kad įsivyraus gynyba, privalo būti vienas iš svarbiausių trumpalaikių DI plėtros tikslų – antraip visas nuostabias mūsų sukurtas technologijas bus galima panaudoti prieš mus!

* * *   

Max Tegmark. Gyvybė 3.0. Žmogus dirbtinio intelekto amžiuje. Iš anglų kalbos vertė Daiva Vilkelytė – Vilnius: Tyto alba, 2019.  

UAB „Lrytas“,
A. Goštauto g. 12A, LT-01108, Vilnius.

Įm. kodas: 300781534
Įregistruota LR įmonių registre, registro tvarkytojas:
Valstybės įmonė Registrų centras

lrytas.lt redakcija news@lrytas.lt
Pranešimai apie techninius nesklandumus pagalba@lrytas.lt

Atsisiųskite mobiliąją lrytas.lt programėlę

Apple App Store Google Play Store

Sekite mus:

Visos teisės saugomos. © 2024 UAB „Lrytas“. Kopijuoti, dauginti, platinti galima tik gavus raštišką UAB „Lrytas“ sutikimą.