“Iga jõululuuletus, mille lasen ChatGPT-l kirjutada, jätab jalajälje.” AI-ekspert Jarmo Tuisk avab uue tahu, miks tehisaruga ettevaatlik olla

AI-strateegia ja tootearenduse ekspert Jarmo Tuisk soovitab ettevõtetel võtta rahulikult ja mitte pealkirjadesse tormata.Foto: erakogu

AI kiirest arengust räägitakse tihti ülivõrdes. See on täiesti arusaadav, kuna tehisaru on nii mõneski olukorras suurepärane abimees, mis teeb elu lihtsamaks ja paljud tööd vähem tülikaks. Kui ka räägitakse tehisintellekti varjukülgedest, pööratakse rohkem tähelepanu eetilistele küsimustele – meedias on kõlapinda saanud nii loomevargused kui tehisintellektiga loodud porno – ja sellele, kelle AI tööst ilma jätab. Tohutu hüppe varjus on jäänud tagaplaanile, kui palju me tehisaru arendamiseks kulutame – ja mitte ainult raha.

Prognoositakse, et ainuüksi järgmisel aastal investeeritakse andmekeskustesse rohkem kui kulus tervele Apollo programmile, mis inimese kuu peale viis. Selle tuules kasvab ka tehisaru energiajanu. Juba kaks aastat tagasi kulus AI-serverite peale aastas umbes kaheksa Eesti jagu elektrit. Gartner prognoosib, et 2027. aastaks kasvab AI-serverite energiakulu 500 teravatt-tunnile (TWh) aastas. See oleks juba üle viiekümne Eesti. Nii saab tehisarust üks suuremaid energiapuudujäägi tekitajaid.

“Paljude jaoks tuleb endiselt suure üllatusena, et iga sõna taga, mille ChatGPT-sse kirjutan, käib tegelikult arvutus, kuskil kulub energiat ja mitte ainult energiat, vaid ka vett, sest andmekeskuseid peab jahutama,” ütleb AI strateegia ja tootearenduse ekspert Jarmo Tuisk, kes on Eesti ettevõtetes koolitanud tuhandeid. Kui suur on oht, et kihutame AI-haibi tuules järgmisesse energiakriisi? Pikemas intervjuus jagab Jarmo nippe, kuidas “vahust” läbi näha.

Kui palju näed oma töös, et peljatakse tehisaru keskkonnamõju? Kas ettevõtted muretsevad, et tohutu energiakulu juures ei tasu AI ennast ära?

Ei, seda kindlasti niimoodi ei kaaluta. Ettevõtete fookus on päeva lõpuks sellel, kuidas sama raha ja ajaga oluliselt rohkem tööd ära teha. Jalajälje temaatikat meil nii väga ei teadvustata.

Seepärast oleme erinevad AI ohud ja väljakutsed n-ö jõuga oma kursusesse sisse toonud. Keskkonnamõjud on selle juures ainult üks võimalik riskikoht, millega peame arvestama.

Küll aga on huvitav, et see on üks osa meie kursusest, mida kõige suurema õhinaga jälgitakse. ChatGPT-ga on enamik juba sinasõbraks saanud, aga keskkonnamõju on paljude jaoks uus teema. Kui teada saadakse, et iga jõululuuletus, mille ma palun ChatGPT-l genereerida, tekitab energiajalajälje ja kuskil andmekeskustes pannakse seetõttu servereid järjest võimsamalt huugama, sunnib see kohe mõtlema, kas kõike ikka on vaja genereerida.

Keskmine ChatGPT päring kulutab keskeltläbi kümme korda rohkem elektrit kui üks Google’i otsing. Jõululuuletusi võiks guugeldada või ise kirjutada. Kas tehisaru kasutatakse ka ettevõtetes liiga kergekäeliselt?

On näha, et püüame anda kõike AI-le teha, läbi mõtlemata, kas see on üldse AI ülesanne või mitte.

Minultki küsitakse, kas AI saaks mu Exceli tabelist ühe veeru ära korjata. Teadlikkust, mis asi see tehisintellekt päriselt on, on vaja endiselt levitada. Mõnikord ongi lihtsam öelda inimesele, et saad selle veeru väga lihtsalt ära kustutada ilma igasuguse tehisintellekti abita – vali veerg ja vajuta delete.

Aasta tagasi kasutas Eestis ChatGPT-d ligi veerand elanikkonnast. Värskeid uuringuid tehtud pole, aga võime oletada, et see on tõusnud poole peale. Kõik neist ei ole kindlasti süvenenud, millega üldse tegu on ja milleks seda kasutada. Kui vaadata, mida Facebooki grupis “ChatGPT ja teised loovad tehisintellektid eesti keeles” küsitakse, siis on näha, et igaüks ei saa aru, milleks on tehisintellekti mudelid paremad ning mis puhul on tegelikult mõistlikum minna Google’isse või Bingi ja esitada oma küsimus seal.

OpenAI tegevjuht Sam Altman käis hiljuti Valges Majas jutul, et ehitada USA-sse mitu 5-gigavatist andmekeskust – tal on seda OpenAI jaoks vaja. Võrdlusena võiks viie gigavatiga varustada elektriga ümmarguselt kolm miljonit kodumajapidamist. Kas energeetika suudab tehisaruga sammu pidada?

Sama teema tuli välja ka Goldman Sachsi raportist. Summad, mida energiavõrk vajab, et kohaneda AI ajastuga, on märkimisväärsed. Ka Microsoft on sõlminud otselepinguid tuumajaamade taaskäivitamiseks. Energiat on juurde vaja, just andmekeskuste lähedale.

Andmekeskused kasutavad praegu üks-kaks protsenti globaalsest energiatarbest. Kümnendi lõpuks kasvab see kolme-nelja protsendi peale. Justkui ei tundugi hirmus suur plahvatus, ometi on see poole rohkem tarbimist võrreldes tänase status quo‘ga. Jalajälg on sel absoluutselt kindlasti ja teadlikkusega peab tegelema. Paljude jaoks tuleb endiselt suure üllatusena, et iga sõna taga, mille ChatGPT-sse kirjutan, käib tegelikult arvutus, kuskil kulub energiat ja mitte ainult energiat, vaid ka vett, sest andmekeskuseid peab jahutama.

Lisaks kulub hulga eurosid arendamiseks ja ka riistvara ei ole teps mitte odav. Investeeringud ulatuvad juba 12-kohaliste arvudeni. Kas see tasub ennast ära?

Fakt on, et uued andmekeskused kerkivad ja ega need õhust ja armastusest tööle lähe. Küsimus on selles, mis teiselt poolt vastu vaatab – kas positiivseid signaale polegi, on ainult söe ahju ajamine või tuumajaamade käima tõmbamine?

Maailma majandusfoorum on välja toonud, et aastaks 2030 võib AI aidata kasvuhoonegaaside heitkoguseid 5–10 protsenti vähendada.

Siiski ütlen, et tänased arvutused on mõlemal poolel tehtud pisut vabiseva pinna pealt. Olukord muutub väga kiiresti. Kasvõi kui palju ressurssi kulutas mudel GPT-4 võrreldes sellega, kui palju kulutab GPT-4o või GPT-4o mini – juba sellistes asjades hakkab alusandmestik vibama. Me ei tea, mis on mudelite energiatõhusus aasta või kahe pärast. Veel raskem on ennustada, milliseid tegevusi me selle tõttu vähem teeme. Tõenäoliselt kulutab keegi vähem elektrit, kuna ChatGPT aitas tal tootmise läbi mõelda.

Probleemiks on tehisaru üleekspluateerimine. AI-d kasutatakse ka seal, kus seda vaja pole. Mida teha, et olukord kontrolli alt ei väljuks?

Eks see haip on praegu tipus ja lootus suur, et AI lahendab kõik mured ära.

Tehisintellekti ei saa kuskile kammitsasse panna, et “ärge rohkem kasutage”. Ettevõtted on näidanud, et AI-st on kasu ka. Pigem on vajalik üldine teadlikkuse tõstmine sellega seotud riskidest ja sellest, mis ühiskonnas muutuma hakkab.

Libe tee on hakata tänasel hetkel kiirustades täiendavaid regulatsioone välja töötama. Öeldakse, et ameeriklased innoveerivad, hiinlased kopeerivad ja eurooplased reguleerivad. Nii võeti Euroopas vastu AI seadus. Seal on sees nõuded, mis puudutavad inimõiguseid. Näiteks kui AI mudel aitab valida, keda kandidaatidest töövestlusele kutsuda või värvata, peab mudeli looja väga selgelt tõestama, et seal ei ole mingit kallutatust sees. Keskkonnanõudeid see ei puuduta. Ühegi mudeli tootja ei pea esitama raportit, kui palju näiteks saja sõna genereerimiseks energiat kulub. Tulevikus võiksime jõuda energiamärgisteni ka mudelite puhul.

Praegu on tehnoloogiasektor veel liiga kiires arengus, et hakata sättima nõudeid. Võime alustada sellest, et soovitada n-ö parimaid praktikaid (best practices). See tähendaks iseregulatsiooni – olge head, mõõtke ära, avaldage oma jalajälge.

Kui selle valdkonna arengukõver jõuab stabiliseerumise faasi, tuleb hakata vaatama, kas kõrgema energianõudlusega mudeleid täiendavalt maksustada või suunata muul regulatiivsel moel kasutama energiatõhusamaid mudeleid. See võib teemaks tõusta juba viie aasta jooksul.

Kuidas vältida olukorda, kus püütakse tehisaruga asendada töid, mida ei ole mõistlik asendada? Näiteks juhul kui AI ongi kallim kui inimene.

Ega seda välistada ei saa. Me ei saa kunagi lõpuni kontrollida, milliseid otsuseid teevad ettevõtete juhid – mida asendada, mida mitte. Tehnoloogia võimaldab teha igasuguseid asju. Palju otsuseid tehakse ka varase ja vähese informatsiooni pealt.

Hiljuti lugesin anekdootlikku lugu, et IT-konsultatsiooniettevõte Accenture on teeninud AI pealt rohkem kui OpenAI – lihtsalt konsultatsiooniteenuseid osutades. See ei ole ju AI, vaid inimeste süü – me ei suuda kontrollida, kuhu nad täpselt seda AI raha panevad.

Kui haip lõpeb, selginevad välja mustrid, mis päriselt tööle jäävad. Jah, suure tõenäosusega näeme ka lugusid, kus inimesed saadetakse koju, pannakse nende asemel AI-agendid püsti ja siis selgub, et oi, see läks nüüd küll täitsa untsu – oleksime ikkagi võinud inimesed tööle jätta. Just kasutusele võtmise algfaasis, kus tehnoloogiat tundma õpitakse, näeme igasuguseid imelugusid.

Kas sellest saab valdav trend, julgen kahelda. Pigem on ikka niimoodi, et osad pioneerid kõrbevad ja teised jällegi avastavad õigeid kohti, kus ja mida tasub teha.

Kus võib esimesena näha, et tehisaru üle võtab? Kas koolis on veel vaja, et füüsiline inimene klassi ees seisaks?

Haridus on kindlasti üks koht, kus on potentsiaali appi tulla. Teisest küljest on haridus üks ühiskonna osa, mis on märkimisväärse inertsiga. Just tassisin lapse koolikotti, mis oli raskem kui mu töökott. Siiamaani ei ole koolides tahvelarvuteid. Mõnikord tehnoloogia ei murra läbi inimlike harjumuste.

Hiljuti lugesin, et Rootsi ettevõte Klarna lõpetas aasta tagasi uute töötajate värbamise, kuna AI teeb kõik töö ära. Arvan, et see on poolenisti tõde ja pool on selleks, et lihtsalt pealkirjadesse jõuda. Täna jõuab pealkirjadesse see, kes ütleb, et AI tegi üht või teist.

Samal ajal ei torma paljud ettevõtted pealkirjadesse, vaid viivad läbi konkreetsemaid arenguprogramme, püüavad enda jaoks läbi mõtestada, mis on selle tehnoloogia alus ja millised võimalikud katsekohad. Halb külg rahulikult võtmisel on see, et tekib tunne, et jääd kõikidest teistest maha – kõik on juba pealkirjades jutuga, kuidas nad on tehisintellekti kasutusele võtnud ja x protsendi töötajaid lahti lasknud, aga mina alles teen katseprojekte!

Teisest küljest võib rahulik minek aidata vältida võimalikke riske ja tagasilööke, kus avastatakse näiteks, et andsin küll tehisintellektile ülesande, aga ei teadnud, et AI võib hallutsineerida. Siis oled otsapidi kohtus, kuna klient on pahane, et AI vestlusrobot lubas allahindlust, mida tegelikult pakkuda ei saa. Midagi sellist juhtus Kanada lennufirma Air Canadaga, mis pidi lõpuks AI vead omaks võtma. Mida suuremaks ettevõte läheb, seda ohtlikumaks muutuvad tehnoloogiast tulenevad riskid.

Mõni ettevõte võtab uue tehnoloogia väga kiiresti omaks ja teises ei lähe see üldse käima. Millest see sõltub?

Tänane trend AI-s on paljuski olnud n-ö alt üles. Inimesed said ChatGPT kätte ja hakkasid seal midagi tegema. Nüüd on hakatud aru saama, et kui ülevalt alla sellele trendile ei reageerita, tekib ettevõttes suhteliselt haldamatu olukord, kus ei saa mitmetest asjadest päris täpselt aru. Esiteks ei saa aru, kus andmed on, sest need liiguvad mööda ChatGPT-d kuskile. Teiseks ei suuda enam planeerida, milliseid tööülesandeid anda ja millise kiirusega neid lahendatakse, kui kümnest kolleegist kolm on ChatGPT gurud ja teised ei tea sellest midagi.

Sellest tulenevalt on mitmed organisatsioonid ülevalt poolt meie poole pöördunud, et oleks vaja ühtlustatumat lähenemist. Selleni jõutakse siis, kui tippjuhtkond hakkab mõistma tehnoloogia võimekusi.

Kas siit võib teha järelduse, et meie hakkamasaamine – et me ei kihutaks AI-haibiga järgmisesse energiakriisi – sõltub juhtide oskusest mõista tehnoloogiat?

Lisaks organisatsioonidele on oluline ka riigi võimekus seda sügavamalt mõista, kiiresti toimuvat tehnoloogiarevolutsiooni omaks võtta ja näppu peal hoida, mis päriselt toimub.

Ka oskus eristada, mis on “vaht”, on väga kriitiline. Iga läbimurdetehnoloogiaga kaasneb palju vahtu, see ei ole AI eripära. Tuleb treenida kriitilist silma, et näha läbi asju, mis on loodud praktiliselt ainult pealkirja jaoks.

Kas meie tänane otsustav kiht poliitilisest osast on piisavate teadmistega varustatud?

Kui sa ütleksid, et too mõni näide poliitikust, kes on tehnoloogiliselt väga pädev, jääksin ma mõneks ajaks kokutama. Mul kohe ei plahvata, et vot see või teine tipptaseme poliitikas, kes täna otsuseid teeb, oleks väga hea seda maailma aduma.

Ilmselt on sama seis energeetika koha pealt?

Seal on vähemalt näha poliitikuid, kes ütlevad, et saavad asjadest aru. Samas on kindlasti abijõududes ja ministeeriumites inimesi, kes teemat jagavad.

Millal muutub AI targemaks kui sina?

Ausalt öeldes ma enda pead selle küsimusega ei vaeva. See on hea küsimus, mida õlleklaasi taga arutada. Mõni ütleb 12 kuud, teine 24, mina vaatan, et kord on ta targem juba praegu ja teine kord pole ligilähedalgi.

Keelemudelid ei pruugi kunagi saada inimesest võimekamaks. Küll aga võidakse ehitada keeruline agentsüsteem, mis kasutab keele- ja pildimudeleid ning jumal teab veel mida, mis ajab kokkukeeratuna oluliselt targemat juttu, kui mina praegu. Aga see pole mitte AI, vaid kombinatoorika mitmetest süsteemidest, mille inimene on kokku pannud.

Õige vastus on, et päriselt ei tea seda keegi. See on liiga keeruline küsimus.

Jarmo Tuisk on tunnustatud AI-ekspert rahvusvahelise kogemusega tootejuhtimises ja strateegilises planeerimises. Tema teadmised ja oskused hõlmavad AI-tehnoloogiate arendamist, strateegilist planeerimist, innovatsiooniprojektide juhtimist, UX/UI disaini ja AI disaini.

Jarmo on EBS-i AI-programmide juht ning Productory AI Agentuuri asutaja. Ta on AI-koolitusi läbi viinud enam kui 2000 inimesele.

Lisaks on Jarmo tarkvaraettevõtte Agrello tootearenduse juht ning omab rahvusvahelist tootejuhtimise kogemust ettevõtetest nagu WePower ja OPnGO. Taust avalikus sektoris, sealhulgas kogemus majandus- ja kommunikatsiooniministeeriumis ning KredExis, annab talle unikaalse vaate AI rakendamisele erinevates valdkondades.

Mis on DigiPRO ja kes seda teevad? Loe siit

Populaarsed lood mujal Geeniuses

Kolm korda nädalas

Telli DigiPRO uudiskiri

Kolm korda nädalas spetsiaalne DigiPRO liikmetele tehtud uudiskiri, et sa midagi olulist maha ei magaks.