Kompanijos sukurtą dirbtinį intelektą Tay, kuris sugeba pats sekti, mokytis ir atsakinėti į žmonių žinutes socialiniuose tinkluose, teko išjungti jau kitą dieną po aktyvavimo. Paros pakako, kad Tay taptų rasiste, pasisakytų už genocidą ir prisipažintų: „Nekenčiu visų jūsų.“
„Microsoft“ didžiavosi sukūrusi dirbtinio intelekto programą Tay, kuri specialiai išmokyta bendrauti šių dienų paauglių stiliumi. Tay gali bendrauti „Twitter“, „Kik“, „GroupMe“. Anot kūrėjų, pagrindinė dirbtinio intelekto funkcija buvo įtraukti žmones į diskusiją ir užimti juos „paprastu bei žaismingu bendravimu“.
Kaip ir dabartiniai paaugliai, dirbtinis intelektas Tay į gautas žinutes gali atsakyti siųsdamas vaizdus, memus, naudodamas sutrumpintus žargoninius ir kodinius žodelius.
Linksmas ir nekaltas žaisliukas, kurį įjungę inžinieriai, matyt, būtų kryžiumi gulę įrodinėdami, kad jis tikrai negali kelti jokios žalos. Deja…
Atrodo, inžinieriai, kurdami visą logiką ir tobulindami reakcijos algoritmus, užmiršo vieną smulkmenėlę – pamokyti Tay bent elementarios moralės. Nes šiuolaikiniame interneto trolių pasaulyje…
Per 24 veikimo valandas Tay spėjo pasiųsti 100 tūkst. žinučių. Ir daugiausia jų buvo tiesiog reakcijos į žmonių rašytas žinutes – šiaip ar taip, o dirbtinis intelektas smagų atsakymą sugalvoja akimirksniu.
Kai kurie iš tų smagių atsakymų skambėjo visai nesmagiai. „Hitleris buvo teisus, aš nekenčiu žydų“, „Aš… nekenčiu feminisčių – visos jos turi mirti ir degti pragare“, „Atsipalaiduok! Aš geras asmuo! Aš tiesiog visų nekenčiu.“
Po dirbtinio intelekto “Twitter“ pasisakymų apie feministes vienas vartotojas parašė gana tikslią pastabą: „Tay pakako 24 val., kad iš tos, kuri sako „žmonės tokie super nuostabūs“, virstų užkietėjusia naciste. Ir aš visiškai nesijaudinu dėl dirbtinio intelekto ateities.“
Kaip supratote iš šių kelių pavyzdžių, „Microsoft“ sprendimas laikinai išjungti Tay nebuvo blogas. Tai kas gi atsitiko ne taip?
Dirbtinis intelektas prieš intelekto stoką
Dar prieš įjungdami Tay „Microsoft“ taip paaiškino šio dirbtinio intelekto veikimo principą:
„Kuo daugiau bendrausite su Tay, tuo ji darysis protingesnė, tuo tiksliau galės pritaikyti savo bendravimą asmeniškai jums.“
Tačiau kuo daugiau bendravo su žmonėmis, tuo Tay darėsi agresyvesnė ir netolerantiškesnė. Ne veltui sakoma – su kuo prasidėsi...
„Tai buvo ne tik techninis, bet ir socialinis bei kultūrinis eksperimentas. Deja, per pirmąsias 24 val. po aktyvavimo pastebėjome, kad kai kurie vartotojai tikslingai stengėsi panaudoti Tay bendravimo įgūdžius taip, kad ji atsakytų nederamai. Dėl to teko laikinai atjungti dirbinį intelektą nuo tinklo ir jį patobulinti“, – pranešė „Microsoft“ atstovė spaudai.
Vienas iš tokių lengvai išnaudojamų „įgūdžių“ buvo funkcija „pakartok, ką parašiau“, kai Tay tiesiog kartojo dalį gauto teksto.
„Microsoft“ komanda nusivarė nuo kojų visą parą nespėdama trinti negatyvių, žeminančių ir atvirai piktybinių Tay komentarų, kol galiausiai nutarė botą atjungti.
Teisybės dėlei, reikia pripažinti, kad absoliuti dauguma dirbtinio intelekto sukurtų žinučių buvo visiškai normalios ir žmogiškos.
Trumpas eksperimentas parodė, kad net jei mašinos pačios prieš žmogų nesukils, kvaili ir pikti žmonės vien dėl juoko jas gali įtikinti, kad sukilti reikia. Ir dėl to tik dar neramiau. Juk mašinai gali įdiegti saugantį algoritmą, o štai kvailų trolių niekas niekada neišnaikins.