Hiljuti hakkasid levima uudised sellest, et populaarne tehisintellektil (AI) põhinev tööriist ChatGPT on langenud depressiooni ning annab seetõttu kasutajate küsimustele lühikesi ja tihti kasutuid vastuseid. Elisa masinõppe valdkonna juht Märt Vaha selgitab arvamusloos, et kui pealtnäha on tegemist lihtsalt naljaka juhtumiga, siis on see tegelikult hea näide sellest, kui keeruline on AI-lahenduste loomine ja nende oma äris kasutuselevõtmine pärismaailmas – need on mustad kastid, mille sees toimuvat keegi lõpuni ei kontrolli.
Keskmine inimene näeb ChatGPT-d ja teisi tekstipõhiseid tööriistasid kui lihtsalt välja, kuhu saab oma ülesande kirjutada ja mis sülitab seepeale tagasi sobiva vastuse. See vaade on ka osaliselt õige, kuid ülimalt poolik. Kõik see, mida näeb kasutaja, on vaid jäämäe tipp ning hästi loodud AI tegelik võlu peitub kõiges selles, mida tavakasutajad ei näe. Ja mitte üksnes kasutajad, vaid tihti ei suuda kogu AI-maagiat mõista ka lahenduse algselt loonud andmeteadlased.
Justkui lapsed
Tänapäevased AI-mudelid õpivad kahes faasis. Esimene mahukam faas hõlmab meeletu koguse andmete läbinärimist, kus AI ülesanne on teadaolevas tekstis või pildimaterjalis välja lõigatud sisu ennustada. Selliselt tekib mudelile maailmast tõenäosuslik arusaam. See tähendab, et kui anda AI-le ette lõik teksti, siis oskab mudel üldistada varasemalt nähtu põhjal, kuidas etteantud tekstilõiku jätkata.
Teises faasis õpivad mudelid juba kui koolilapsed. Neile antakse ette mingi ülesanne ja soovitud tulemus. Käsitsi loodud treeningandmetega pannakse tehisaru oma vastust sõnastama selliselt, et see oleks inimestele ootuspärane. Kõiki neid andmeid läbi töötades jõuab tehismõistus lõpuks välja punkti, kus see suudab anda vastuse, mis on piisavalt sarnane soovitud tulemusele. Aga nii nagu ei tea kooliõpetaja, täpselt mis loogikat kasutas oma peas laps, et mingi teema endale selgeks teha, ei tea arendajad enamasti kunagi lõpuni välja, mis seosteahelate abil AI endale midagi selgeks tegi.
Alati on võimalik üritada seda ära arvata ning erinevate katsetuste abil oma teooriaid testida, kuid kuna AI-mudelid on keerukad, võib olla lõpliku tõeni välja jõudmine üsnagi keeruline. See iseõppivus ja mingi “õige” tulemuse saavutamine on ka see, miks ka kõige nutikamad AI-lahendused aeg-ajalt justkui katki lähevad või hakkavad käituma inimestele arusaamatul moel.
Justnimelt inimestele arusaamatult. Võttes hiljutise ChatGPT näite, kus tööriist ei tahtnud enam aidata kasutajal koodi kirjutada, vaid juhatas lihtsalt kätte õige teeotsa ja palus inimestel siis ise probleemi edasi lahendada, ei pruukinud see olla otsene viga. Jah, see oli viga selles mõistes, et tööriist ei andnud inimestele abi, mida nad soovisid, kuid tehisaru enda arvates tegi ta ilmselt kõige efektiivsemalt seda, mida oli temast oodatud.
On ka täiesti võimalik, et ChatGPT taustal töötav mudel lihtsalt arvas, et nii ongi õige, kuna mingil põhjusel oli ta tuhandetest treeningmaterjalidest välja valinud sisendi, kus programmeerimist õpetatigi vaid lühikesi vastuseid andes. Lõplikku tõde ei tea siin ilmselt keegi, kuid üht-teist proovides on ChatGPT loojad tänaseks selle mure ära lahendanud. Miski aga ei välista, et midagi sarnast õige pea uuesti ei juhtu. AI-lahendused on alles lapsekingades ning hulk väljakutseid seisab alles ees.
AI teeb, mida AI tahab
Kõigi nende väljakutsete taustal jääb aga muutumatuks tõsiasi, et mõnikord teebki AI lihtsalt seda, mida ta teeb. Sest ta arvab, et nii on õige. Mingi lüli mustas kastis on endale midagi pähe võtnud ja kuni kuskil ei muudeta treeningandmeid või ei muudeta selgelt seda, kuidas peaks lahendus tehnilisel tasemel töötama, siis nii see jääbki. Sarnase kadalipu käisime hiljuti läbi ka Elisas, kui üritasime eksperimendi raames OpenAI loodud tehisintellektile selgeks teha, et tema peakski teenindajana Elisa kliente nende küsimustes abistama.
Meie näitel keeldus GPT-mudel mõistmast, et tema ongi meie kontekstis teenindaja. Selle asemel, et teenindajana käituda, soovitas ta inimestel klienditeenindusega ühendust võtta. Samas suutis ta selle käitumise taustal anda õigeid vastuseid, kuid kuna tehisaru oli kindel, et tema teenindaja pole, lisas ta osade vastuse juurde viite, et klient peaks ikkagi teenindajaga ühendust võtma. Seda hoolimata korduvatest ja korduvatest katsetest talle selgeks teha, et tema ongi teenindaja.
See on pelgalt üks humoorikas situatsioon, mis ilmestab, kui keerukad võivad AI-lahendused oma olemuselt olla. Mida laiemalt vaadata, seda enam selliseid olukordasid leiab ning mida kauem asjadel silma peal hoida, seda arvukamaks need situatsioonid muutuvad. Meie näite puhul suutsime olukorra lahendada andes AI-le kasutada eraldi tekstikasti, kus ta sai end välja elada – sinna läks kogu jutt sellest, et peaks ühendust võtma teenindajaga – aga igal juhul AI murede lahendamine nii lihtne pole.
Tehisintellekt on ajas arenev tehnoloogia, mis peabki oma kasvuraskused läbi elama. Iga probleem pakub uusi võimalusi õppimiseks ning kuni mudeli loojad on piisavalt kannatlikud ja piisavalt nutikad, et neid probleeme tuvastada ja nende vastu rohi leida, muutub tööriist aja jooksul paremaks. See ei saa kunagi olla täiuslik ja on paratamatu, et mõnikord AI jonnibki või keeldub tööd tegemast, aga see on asja osa. See on üks võimas must kast, millega tuleb küll veidi maadelda, kuid mille potentsiaal järgnevate aastate jooksul meie kõigi elu paremaks muuta on meeletu.
Samas ei tohi ka unustada, et tänased AI-mudelid ja sellega seotud ettevõtlus on alles lapsekingades. Nii nagu on näiteks OpenAI viimaste aastate jooksul GPT-mudeleid pidevalt muutnud, ei saa välistada, et suuremaid muutuseid on tulemas veelgi. Suure tõenäosusega on need muutused head, aga miski ei välista, et mõni muutustest lõhub täielikult “harjumuspärase” AI senise tööstiili. Kui aga mudel juba tugevalt ettevõtte protsessiga liidestatud on, võib see kaasa tuua olulisi probleeme. Seetõttu tasub tehisaruga katsetades äririske alati meeles pidada ja neid võimalusel ka mõistlikult maandada.