Tamsioji dirbtinio intelekto paslaptis: niekas iš tiesų nesupranta, kaip jis veikia

Visi, kas netingi, dabar kalba apie dirbtinį intelektą ir beribes jo galimybes. Iš tiesų, jis jau keičia mūsų gyvenimus ir mes priimame tai kaip duotybę, kaip technologijų vystymosi išdavą, žmogaus pergalę ir proto triumfą.

 Jeigu mašina negali geriau už mus paaiškinti, ką daro, ar derėtų ja pasitikėti?<br> 123rf nuotr.
 Jeigu mašina negali geriau už mus paaiškinti, ką daro, ar derėtų ja pasitikėti?<br> 123rf nuotr.
Daugiau nuotraukų (1)

Lrytas.lt

May 2, 2017, 11:00 PM, atnaujinta May 3, 2017, 12:05 AM

Nuneigti jo galimybes sunku, juolab, nežinome viso jo potencialo. Ką ten potencialo – net dorai nesuprantame, kaip jis atlieka tai, ką atlieka.

Pernai ramiose Naujojo Džersio valstijos Monmuto apygardos gatvėse pasirodė keistas bepilotis automobilis. Ši eksperimentinė transporto priemonė, sukurta vaizdo plokščių gamintojos „Nvidia“, iš pirmo žvilgsnio niekuo nesiskyrė nuo kitų autonominių automobilių, bet ji nebuvo panaši į nieką, ką testavo „Google“, „Tesla“, ar „General Motors“ ir demonstravo augančią dirbtinio intelekto galią.

Automobilis nesivadovavo inžinierių ar programuotojų sukurtomis instrukcijomis. Jis vadovavosi tik algoritmu, kuris vairuoti išmoko pats, žiūrėdamas, kaip tai atlieka žmonės.

Priversti automobilį taip vairuoti – įspūdingas pasiekimas. Tačiau kartu ir šiek tiek keliantis nerimą, kadangi nėra iki galo aišku, kaip automobilis priima sprendimus. Informacija iš automobilio jutiklių keliauja tiesiai į didžiulį dirbtinių neuronų tinklą, kuris apdoroja duomenis ir pateikia komandas vairui, stabdžiams ir kitoms sistemoms.

Gauti rezultatai atrodo tokie patys, kokių tikėtumėmės iš vairuotojo žmogaus. Bet jei vieną dieną jis iškrės ką nors netikėto – trenksis į medį ar nepajudės iš vietos, užsidegus žaliam šviesoforo signalui? Kol kas išsiaiškinti priežastis būtų sunku.

Ši sistema tokia sudėtinga, kad netgi ją sukūrusiems inžinieriams gali nepavykti išskirti kurio nors konkretaus veiksmo priežasties. O jos pačios paklausti neįmanoma: nėra jokio akivaizdaus būdo, kaip sukurti sistemą, kuri pati visą laiką galėtų pagrįsti savo veiksmų priežastis.

Paslaptingasis šio automobilio protas nurodo žiojinčią dirbinio intelekto (DI) problemą. Šiame automobilyje naudojama dirbtinio intelekto technologija – gilusis mokymasis, – pastaraisiais metais įrodė problemų sprendimo galimybes, daug kur pritaikyta ir plačiai naudojama tokiose srityse, kaip vaizdų ir balso atpažinimas bei kalbų vertimas.

Dabar tikimasi, kad tokia pat technika galės nustatyti mirtinas ligas, sudaryti milijonų dolerių vertės prekybos sandorius ir atlikti dar daug dalykų, transformuosiančių ištisas pramonės šakas.

Bet taip negalės nutikti – ar neturėtų nutikti, – kol nerasime būdų, kaip padaryti tokias technikas, kaip gilusis mokymasis, labiau suprantamas jų kūrėjams ir keliančias didesnį pasitikėjimą jų naudotojams. Antraip bus sunku prognozuoti, kada gali kilti problemų – o tai įvyks neišvengiamai. Būtent todėl „Nvidia“ automobilis vis dar eksperimentinis.

Matematiniai modeliai jau naudojami, nustatant, ką galima išleisti lygtinai, kam galima teikti paskolas ir ką samdyti darbui. Apžiūrėjus šiuos matematinius modelius, būtų galima suprasti jų priimamų sprendimų priežastis.

Bet bankai, kariuomenė, darbdaviai ir kiti savo dėmesį kreipia link sudėtingesnių mašininio mokymosi metodų, kurie gali automatiškai priimti sprendimus ir jų perprasti neįmanoma. Labiausiai paplitęs iš šių metodų, gilusis mokymasis, yra iš esmės kitoks kompiuterių programavimo būdas.

„Ši problema aktuali jau dabar, o ateityje ji taps dar aktualesnė, – sakė Tommis Jaakkola, MTI profesorius, tiriantis mašininio mokymosi pritaikymą. – Ar tai būtų sprendimas, susijęs su investavimu, medicina, ar gal karyba, nesinori kliautis vien „juodos dėžės“ principu.“

Jau dabar teigiama, kad galimybė išklausinėti DI sistemą, kaip ji priėjo išvadą, yra fundamentali naudotojo teisė. Nuo 2018 metų vasaros Europos Sąjunga gali pradėti reikalauti, kad kompanijos naudotojams pateiktų paaiškinimus, kaip automatinės sistemos priima sprendimus.

Tai gali būti neįmanoma netgi tokiose iš pirmo žvilgsnio paprastose sistemose, kaip, tarkime, programėlėse ir interneto svetainėse, kurios naudoja gilųjį mokymąsi reklamų ar rekomenduojamų dainų pateikimui. Šias užduotis atliekantys kompiuteriai susiprogramavo save patys ir jie atliko tai mums nesuprantamu būdu. Netgi programėles sukūrę inžinieriai negali visapusiškai išaiškinti jų veikimo.

Tai kelia itin svarbius klausimus. Technologijai tobulėjant, netrukus galime peržengti ribą, kai naudotis DI galėsime tik todėl, kad tikime, jog DI žino ką daro. Aišku, mes, žmonės, irgi ne visada galime paaiškinti savo mąstymo procesus, bet mokame intuityviai pasitikėti ir vertinti žmones. Ar tai įmanoma mašinoms, kurios mąsto ir sprendimus priima kitaip, nei žmonės?

Niekada nesame kūrę mašinų, kurios veiktų taip, kad jų kūrėjas to negalėtų suprasti. Kaip galime tikėtis bendrauti – ir sutarti – su protingomis mašinomis, kurios gali būti nenuspėjamos ir neperprantamos? Šie klausimai paskatino leistis į pažangiausių DI algoritmų tyrimų kelionę, nuo „Google“ iki „Apple“ ir daugybės kitų, o taip pat susitikau su vienu iš žymiausių mūsų laikų filosofų.

2015 metais Niujorko Sinajaus kalno ligoninės tyrėjų grupė giliajam mokymuisi panaudojo didžiules ligoninės pacientų ligų istorijų duomenų bazes. Šiuose duomenyse yra užfiksuoti šimtai pacientų kintamųjų – anamnezės, gydytojų vizitų, analizių rezultatai, etc.

Programa, kurią tyrėjai pavadino „Deep Patient“, buvo treniruojama, naudojant 700 000 asmenų duomenis, o tada išbandyta su naujais įrašais, ir neįtikėtinai gerai diagnozavo ligas. Be jokių ekspertų nurodymų „Deep Patient“ aptiko ligoninės duomenyse pacientus, kuriems diagnozavo kuo įvairiausias ligas, įskaitant kepenų vėžį. Yra daug metodų, leidžiančių „gan gerai“ diagnozuoti ligą iš paciento įrašų, sako Joelis Dudley, vadovaujantis Sinajaus kalno ligoninės komandai. „Bet tai buvo gerokai geriau“, – pridūrė jis.

Tuo pat metu „Deep Patient“ kelia šiokius tokius neaiškumus. Jis stulbinamai gerai nuspėjo psichinius sutrikimus, tokius kaip šizofrenija. Bet, kadangi šizofreniją gydytojai diagnozuoja sunkiai, J.Dudley kilo klausimas, kaip tai įmanoma. Atsakymo jis vis dar nežino.

Naujasis įrankis nepateikia savo veikimo principo užuominų. Jei kas nors panašaus į „Deep Patient“ ketina padėti gydytojams, idealiu atveju jis turėtų pateikti jiems diagnozės nustatymo pagrindimą, kad jie galėtų įsitikinti, kad viskas yra tikslu ir pritarti, tarkime, naudojamų vaistų pakeitimui. „Galime sukurti šiuos modelius, tačiau nežinome, kaip jie veikia“, – skėstelėjo rankomis J.Dudley.

Dirbtinis intelektas ne visados buvo toks. Iš pradžių buvo du požiūriai, kiek suprantamas ar paaiškinamas turėtų būti DI. Daug kas manė, kad protingiausia kurti mašinas, kurios vadovautųsi taisyklėmis ir logika, kad jų veikimas būtų suprantamas bet kam, kas panagrinėtų kodą.

Kiti manė, kad intelektas lengviau kurtųsi, jei mašinos įkvėpimo semtųsi iš gamtos ir mokytųsi stebėdamos ir patirdamos. Tam reikėjo kompiuterių programavimą apverti aukštyn kojomis.

Užuot problemų sprendimui naudojusi programuotojo užrašytas komandas, programa sukuria savo algoritmą, remdamasi pavyzdžiais ir pageidaujamu rezultatu. Mašininio mokymosi technikos, vėliau išsivysčiusios į dabartines galingiausias DI sistemas, naudojosi antruoju būdu: mašina iš esmės pati save programavo.

Iš pradžių šio būdo praktinis panaudojimas buvo ribotas ir septintajame bei aštuntajame praėjusio amžiaus dešimtmetyje laikėsi šios srities paraštėse. Tačiau daugelio pramonės šakų kompiuterizacija ir didelių duomenų kiekių atsiradimas atgaivino susidomėjimą šia sritimi.

Tai buvo galingesnių mašininio mokymosi technikų, ypač vadinamojo neuroninio tinklo, versijų kūrimo stimulas. Dešimtajame dešimtmetyje neuroniniai tinklai galėjo automatiškai skaitmeninti rankraštinius tekstus.

Bet tik šio dešimtmečio pradžioje, po kelių protingų patobulinimų ir pataisymų, labai dideli – arba „gilūs“ – neuroniniai tinklai pademonstravo dramatišką automatizavimo patobulėjimą. Dabartinį DI sprogimą sukėlė gilusis mokymasis.

Jis suteikė kompiuteriams nepaprastas galias, pavyzdžiui, gebėjimą atpažinti tariamus žodžius praktiškai taip pat gerai, kaip tai atlieka gyvas žmogus, – tokį gebėjimą užprogramuoti rankomis pernelyg sudėtinga.

Gilusis mokymasis transformavo kompiuterinę regą ir dramatiškai patobulino mašininį vertimą. Dabar gilusis mokymasis padeda priimti svarbius sprendimus medicinoje, finansuose, gamyboje ir dar daug kur.

Bet kokios mašininio mokymosi technologijos iš prigimties yra labiau neperprantamos netgi kompiuterių mokslininkams, nei „rankomis sukoduotos“ sistemos. Tai nereiškia, kad visos būsimos DI technologijos bus lygiai tokios pat nepažinios. Bet jau dėl pačios savo prigimties gilusis mokymasis yra itin tamsi juodoji dėžė.

Neįmanoma tiesiog žvilgtelėti į giliojo neurotinklo vidų ir nustatyti, kaip jis veikia. Tinklo sprendimų pagrindimas priklauso nuo tūkstančių simuliuojamų neuronų dešimtyse ar net šimtuose glaudžiai susijusių sluoksnių, veikimo.

Pirmojo sluoksnio neuronai gauna pradinius duomenis, pavyzdžiui, vaizdo taško intensyvumą, ir atlikęs skaičiavimus sukuria naują signalą. Kiekvieno žemiausio neuronų sluoksnio rezultatai perduodami kito lygio neuronams ir procesas kartojamas, kol gaunamas rezultatas.

Be to, vyksta ir atgalinio klaidos sklidimo procesas, paderinantis atskirų neuronų skaičiavimus taip, kad tinklas išmoktų kurti norimą rezultatą.

Daugiasluoksnis gilusis neurotinklas geba atpažinti įvairaus abstrahavimo lygio dalykus. Tarkime, sistemoje, skirtoje šunų atpažinimui, žemesni sluoksniai atpažįsta tokius paprastus dalykus, kaip siluetai ar spalvos; aukštesni sluoksniai atpažįsta sudėtingesnius, pavyzdžiui, kailį ar akis; aukščiausias sluoksnis visa tai identifikuoja kaip šunį.

Iš principo tokiu pat metodu mašinos gali mokytis: iš garsų sudaromi kalbos žodžiai, raidės ir žodžiai sukuria teksto sakinius, vairo judesiai – vairavimą.

Stengiantis detaliau perprasti ir išsiaiškinti, kas tokiose sistemose vyksta, buvo pasitelktos įvairios strategijos. 2015 metais „Google“ mokslininkai giliuoju mokymusi paremtus vaizdų atpažinimo algoritmus pakeitė taip, kad šie, užuot aptikę objektus fotografijose, juos kurtų ar keistų.

Paleidę algoritmą „atbulai“ jie galėjo stebėti, iš kokių bruožų programa atpažįsta, tarkime, paukštį ar statinį. Gauti atvaizdai, sukurti vykdant „Deep Dream“ projektą, rodo iš debesų ir augalų atsirandančius groteskiškus, nežemiškus gyvius ir pagodų haliucinacijas, kylančias iš miškų ir kalnų.

Šie atvaizdai įrodė, kad gilusis mokymasis nebūtinai visiškai neperprantamas; jie atskleidė, kad algoritmai remiasi pažįstamais vaizdiniais bruožais, tarkime paukščių snapu ar plunksnomis. Bet šie vaizdai taipogi pademonstravo, kaip skiriasi gilusis mokymasis nuo žmogiško suvokimo, kai DI ką nors bando įžvelgti artefakte, kurį mes žinome, kad galima tiesiog ignoruoti. 

„Google“ tyrėjai pastebėjo, kad algoritmas, generuodamas svarmens vaizdus, generavo ir jį laikančio žmogaus ranką. Mašina nusprendė, kad ranka yra svarmens dalis.

Toliau buvo žengta pasiskolinus neurologijos ir kognityvinių mokslų idėjas. Vajomingo universiteto profesoriaus Jeffo Clune'o vadovaujama komanda giliuosius neurotinklus išbandė DI optinių iliuzijų atitikmenimis. 2015 metais J.Clune’o grupė parodė, kaip panaudojant žemojo lygio sluoksnių kontūrų atpažinimą, tam tikri vaizdai gali apkvailinti tokius tinklus, kad šie regėtų nesamus dalykus.

Vienas J.Clune’o bendradarbis, Jasonas Yosinskis, sukūrė įrankį, veikiantį kaip į smegenis įterptas zondas. Jo įrankis pasiekia bet kurį neuroną tinklo viduje ir ieško labiausiai jį aktyvuojančio atvaizdo. Šie abstraktūs vaizdai (įsivaizduokite impresionisto nutapytą flamingą ar mokyklos autobusą) atskleidžia paslaptingus mašinų suvokimo gebėjimus.

Tačiau vien užmesti akį į DI mąstyseną negana ir paprasto šios problemos sprendimo nėra. Aukštesnio lygio vaizdų atpažinimas ir sudėtingų sprendimų priėmimas priklauso nuo gilaus neurotinklo viduje vykstančių skaičiavimų tarpusavio sąveikos, bet šie skaičiavimai yra matematinių funkcijų ir kintamųjų liūnas.

„Jei neuroninis tinklas visai mažytis, jį suprasti galima, – sako T.Jaakkola. – Bet labai didelis, turintis tūkstančius neuronų sluoksnyje ir šimtus sluoksnių, tinklas tampa visai nesuprantamas.“

Šalia T.Jaakkola biuro dirba Regina Barzilay, MIT profesorė, pasiryžusi pritaikyti mašininį mokymąsi medicinoje. Prieš porą metų jai buvo diagnozuotas krūties vėžys.

Jau pati diagnozė sukrėtė, bet R.Barzilay buvo nusivylusi ir tuo, kad naujausi statistikos ir mašininio mokymosi metodai nenaudojami onkologiniuose tyrimuose ar pacientų gydymo tobulinimui.

Ji sako, kad DI turi didžiulį panaudojimo medicinoje potencialą, bet to potencialo realizavimas reiškia ne vien ligos istorijų skaitymą ir analizavimą. R.Barzilay įsivaizduoja didesnį neapdorotų duomenų, kurie dabar iki galo nepanaudojami, pasitelkimą: atvaizdai, patologijų duomenys ir kita informacija.

Pernai pabaigusi vėžio gydymą, R.Barzilay su savo studentais ir Masačusetso bendrosios ligoninės gydytojais pradėjo kurti sistemą, galinčią nagrinėti patologų ataskaitas ir identifikuoti pacientus su tam tikromis klinikinėmis charakteristikomis, kurias tyrėjai norėtų išstudijuoti. Tačiau R.Barzilay suprato, kad sistema turėtų paaiškinti savo sprendimus.

Tad, drauge su R.Jaakkola ir studentu, ji žengė toliau: sistema išskiria ir paryškina atrastą bruožą nurodančias teksto ištraukas. R.Barzilay su studentais dar kuria ir giliojo mokymosi algoritmą, gebantį mamogramose aptikti ankstyvus krūties vėžio ženklus ir siekia suteikti sistemai galimybę pagrįsti savo sprendimus. „Ten, kur vyksta žmonių ir mašinų bendradarbiavimas, atgalinis ryšys būtinas“, – pažymi R.Barzilay.

JAV kariuomenė skiria milijardus projektams, kurie mašininį mokymąsi panaudos automobilių ir lėktuvų pilotavimui, taikinių nustatymui ir padės analizuoti kalnus žvalgybinės informacijos.

Čia, labiau nei kur kitur, netgi labiau nei medicinoje, ne vieta algoritmų paslaptims, tad Gynybos departamentas nurodė paaiškinamumą kaip pagrindinę technologijos pritaikymo kliūtį.

Davidas Gunningas, DARPA programos vadybininkas, prižiūri atitinkamai pavadintą Paaiškinamo dirbtinio intelekto („Explainable Artificial Intelligence“) programą. Žilaplaukis agentūros veteranas, anksčiau prižiūrėjęs DARPA projektą, iš kurio vėliau gimė „Siri“, sako, kad automatizavimas smelkiasi į nesuskaičiuojamas karybos sritis.

Žvalgybos analitikai išbando mašininį mokymąsi kaip būdą aptikti struktūras daugybėje žvalgybinių duomenų. Kuriama ir bandoma daugybė autonominių antžeminių transporto priemonių ir orlaivių. Bet vargu ar kareiviai jaustųsi patogiai robotizuotame tanke, kuris nepaaiškina savo veiksmų, o analitikai nebūtų linkę vadovautis informacija be jokio paaiškinimo.

„Dėl šių mašininio mokymosi sistemų prigimties jos pateikia daug netikrų aliarmų, tad žvalgybos analitikams išties reikia papildomo paaiškinimo, kodėl buvo pateikta viena ar kita rekomendacija“, – sakė D.Gunningas.

Šį kovą DARPA pasirinko 13 akademinių ir industrinių projektų, kurie bus finansuojami per D.Gunningo programą. Kai kurie iš jų gali remtis Carloso Guestrino, Vašingtono universiteto profesoriaus, darbais. Jis su kolegomis sukūrė būdą mašininio mokymosi sistemoms pateikti savo išvadų pagrindimą. Iš esmės, vadovaudamasis šiuo metodu, kompiuteris automatiškai suranda kelis duomenų pavyzdžius ir pateikia juos su trumpais paaiškinimais.

Pavyzdžiui, sistema, turinti aptikti teroristų siunčiamus elektroninius laiškus, gali treniruotis ir mokytis priimti sprendimus iš daugybės milijonų žinučių. Bet naudodama Vašingtono komandos metodą ji paryškina tam tikrus žodžius žinutėse. C.Guestrino grupė taip pat sukūrė būdus vaizdų atpažinimo sistemoms leisti suprasti savo sprendimų priežastis, paryškinant svarbiausias atvaizdo dalis.

Šio ir kitų panašių būdų trūkumas – pateikiamas paaiškinimas visada bus supaprastintas, tad gali būti prarandama svarbi informacija. „Neįgyvendinome svajonės, kur DI kalbasi su jumis ir gali viską paaiškinti, – sako C.Guestrinas. – Iki išties suprantamo DI dar tolimas kelias.“

Tai gali sukelti problemų netgi ne tokioje svarbioje situacijoje, kaip vėžio diagnozavimas ar karo manevrai. DI samprotavimo perpratimas gali būti itin svarbus, jei ši technologija paplis ir taps naudinga kasdienybės dalimi. 

Tomas Gruberis, vadovaujantis „Apple“ kompanijos „Siri“ komandai, sako, kad gebėjimas paaiškinti yra svarbiausias jo komandos tikslas, nes jo komanda stengiasi padaryti „Siri“ išmanesniu ir gabesniu virtualiu asistentu. T.Gruberis konkrečių „Siri“ ateities planų neatskleidžia, bet nesunku įsivaizduoti, kad iš „Siri“ gavus restorano rekomendacijas, norėtųsi žinoti, kuo remdamasi „Siri“ jas pateikė. 

Ruslanas Salakhutdinovas, „Apple“ DI tyrimų direktorius ir asocijuotasis profesorius Carnegie Mellon universitete, gebėjimą paaiškinti sprendimus vertina kaip žmogaus ir mašinos santykių vystymosi pagrindą. „Tai suteiks pasitikėjimą“, – sakė jis.

Kaip neįmanoma detaliai paaiškinti daugelio žmonių elgesio aspektų, taip, tikriausiai, ir DI nesugebės paaiškinti visko, ką jis daro. „Net jei kas gali pateikti logiškai skambantį savo veiksmų paaiškinimą, jis tikriausiai nėra visapusiškas. Tas pat galioja ir DI atveju, – sako J.Clune'as Vajomingo universiteto. – Gali būti, kad dėl pačios proto prigimties racionaliai paaiškinama tik jo dalis. Dalis jo yra tiesiog instinktyvi, pasąmoninė ar nepažini.“

Jei taip, tada kažkuriuo metu teks tiesiog pasikliauti DI sprendimu arba išvis juo nesinaudoti. Panašiai šis sprendimas turės inkorporuoti ir visuomeninį intelektą. Kadangi visuomenė statoma, remiantis numanomu elgesiu, turėsime kurti DI sistemas, gerbiančias ir atitinkančias socialines normas. Kuriant robotizuotus tankus ir kitas žudymo mašinas svarbu, kad jų sprendimai derėtų su mūsų etinėmis nuostatomis.

Garsus filosofas ir kognityvinių mokslų specialistas Danielis Dennettas iš Tuftso universiteto, tyrinėjantis protą ir sąmonę, naujausioje savo knygoje nurodo, kad natūrali paties proto vystymosi dalis yra sistemų, galinčių atlikti užduotis, kurių pats sistemos kūrėjas nesugeba atlikti, kūrimas. „Klausimas tik, kaip tai atlikti išmintingai: kokių standartų reikalaujame iš jų ir kokių – iš savęs?“ – svarstė jis.

Jis įspėjo ir dėl paaiškinamumo paieškų. „Manau, jei naudosime šiuos dalykus ir remsimės jais, reikia kuo daugiau sužinoti, kaip ir kodėl jie pateikia būtent tokius atsakymus“, – sakė jis. Bet, kadangi idealaus atsakymo gali ir nebūti, DI paaiškinimus turėtume vertinti taip pat atsargiai, kaip ir vieni kitų – nesvarbu, kokia protinga mašina beatrodytų. „Jeigu ji negali geriau už mus paaiškinti, ką daro, tada nepasitikėkite ja“, – sakė jis.

Parengta pagal Businessinsider.com inf.

UAB „Lrytas“,
Gedimino 12A, LT-01103, Vilnius.

Įm. kodas: 300781534
Įregistruota LR įmonių registre, registro tvarkytojas:
Valstybės įmonė Registrų centras

lrytas.lt redakcija news@lrytas.lt
Pranešimai apie techninius nesklandumus webmaster@lrytas.lt

Atsisiųskite mobiliąją lrytas.lt programėlę

Apple App Store Google Play Store

Sekite mus:

Visos teisės saugomos. © 2022 UAB „Lrytas“. Kopijuoti, dauginti, platinti galima tik gavus raštišką UAB „Lrytas“ sutikimą.