Vko 16 tekoälysää

‍ ‍

Tekoälyrintamalla vallitseva ilmastoala ei, lähes poikkeuksellisesti, kokenut järisyttäviä muutoksia. OpenAI toi markkinoille, ilmeisen Anthropicin Mythoksen kiihdyttämänä iteraationa, kyberkyvykkyyksiin fokusoidun mallin GPT-5.4 mallista, josta aiemmin kohistiin maailman laajuisesti keskuspankkiirien hätäkokouksia myöden. Anthropic julkaisi Claude Opus 4.7 mallin, joka on erittäin hyvistä benchmark-tuloksista huolimatta saanut vaihtelevan vastaanoton. Anekdoottisesti havainnoituna useat käyttäjät ovat todenneet pitäneensä enemmän 4.6 versiosta. Samankaltainen narratiivi tuntuu toistuvan noin joka toisessa julkaisussa mallien kyvykkyyksien ainakin näennäisesti kuitenkin joka kerta kasvaessa. Tämä voi olla enemmän yhteydessä käyttäjäkokemukseen kuin mallien todelliseen suorituskykyyn, mutta on myös täysin mahdollista, että mallien optimointi mittareina toimivia testisettejä vasten usein vinouttaa ne kauemmas yleistettävästä hyödyllisyydestä. Arkielämän esimerkkinä voidaan pitää vaikka sitä, että mikäli ihminen mittaa kyvykkyyttään esimerkiksi jollain painonnosto- tai voimanostoliikkeellä, ei ennätyksellinen tulos automaattisesti tarkoita hänen olevan sen parempi muuttomies kuin aiemmallakaan tuloksella.

‍ ‍

Samaan aikaan Meta ilmoitti lisäävänsä panostuksia kustomoituihin AI siruihin yhteistyössä Broadcomin kanssa. Ilmoitus ei sinänsä muuta tekoälykentässä mitään, mutta on eräänlainen ”harbinger” trendille, jossa tietyt tahot pyrkivät omilla aloitteillaan eroon Nvidian johtajuudesta ja yksinapaisuudesta tekoälyn laskentakapasiteetin markkinoilla.

‍ ‍

Asiaan vähemmän vihkiytyneille AI laskennan toteutusta voidaan kuvata seuraavalla tavalla: GPU eli Graphics Processing Unit mikrosirut ovat kuin Harvian sähkökiuas. Yleiskäyttöisiä, sopivat melkein mihin tahansa tekoälymallien koulutuksesta mallien käytönaikaiseen ajoon eli ”päättelyyn” (inference). Tehokkuus näihin tehtäviin tulee rinnakkaislaskennasta, jossa grafiikan tuottamisen matriisilaskenta kyetään toteuttamaan erittäin tehokkaasti rinnakkain. Huolimatta tästä tehokkuudesta GPU:t häviävät tehokkuudessa kustomoitujen sirujen nopeudelle ja energiatehokkuudelle. Palataksemme sähkökiukaan tapaukseen voidaan näennäisen näppärästi verrata keskivertosähkökiuasta sekä pikakiukaaseen että puukiukaaseen. Mikäli sähkö on halpaa, on Harvian peruskiuas varmasti hintansa arvoinen laite niin asennuksessa kuin käytössä. Mikäli käyttö on tiheää mutta sporadista, voi pikakiuas olla parempi ratkaisu, sillä se kuluttaa vähemmän virtaa ja on silti nopeasti käyttöönotettavissa. Mikäli käyttäjällä on kallis sähkösopimus ja vastaavasti pikkuserkku, joka tuo kuivaa koivuklapia rasittavuuteen asti etupihalle, voi olla taloudellisinta nähdä se vaiva, että lämmittää saunansa puulla. Tällä ontuvalla aasinsillalla pyritään kuvaamaan kätevyyden ja käytettävyyden eroja, jotka vaikuttavat AI laskentakapasiteetin rakentamiseen. Tehtävään suunnitellut sirut (ASIC, Application Specific Integrated Circuit) ovat tehokkaampia jokaisella mitattavalla tavalla verrattuna GPU siruihin. Ongelma on siinä, että ne täytyy suunnitella tiettyyn käyttöön, ja tämän jälkeen ne toimivat optimaalisesti vain kyseisessä käytössä. Lukittu suorituskyky on huono ominaisuus tekoälymallien iteratiivisessa kehittämisessä sekä mallisukupolvien nopeassa evoluutiosyklissä, jossa koulutettavat ja ajettavat mallit muuttuvat varsin jatkuvasti. Tästä huolimatta ASIC siruille on oma paikkansa ekosysteemissä, ja esimerkiksi Googlen TPU (tensor processing unit) tekee Googlesta tietyiltä osin riippumattoman Nvidian tuotteista.

‍ ‍

Kenties mielenkiintoisin ajatus kustomoitujen sirujen suunnalla on kanadalaisen Taalas-nimisen startupin ratkaisu, jossa siru rakennetaan replikoimaan jo koulutetun kielimallin parametrit. Tällöin sirun ainut tehtävä on toteuttaa kielimallin laskenta syötteestä tulosteeksi, mutta merkittävällä nopeus- ja energiatehokkuusedulla, esimerkiksi satakertaisella vauhdilla.

‍ ‍

Omalla tahollaan Nvidia julkaisi Ising-projektin, jonka tarkoituksena on tuottaa avoimia tekoälymalleja kvanttilaskennan parantamiseen esimerkiksi prosessorikonfiguraation ja kvanttivirhekorjauksen saroilla. Teoriassa kvanttilaskenta on yksi merkittävimpiä uhkia Nvidian markkina-asemalle tulevaisuudessa, mutta samaan hengenvetoon voidaan todeta, että Nvidian kvanttilaskentaemulaatio on kaiketi edelleen maailman paras kvanttitietokone, vaikka se todellisuudessa on GPU pohjainen simulaatio siitä, miten kvanttilaskenta toimii.

‍ ‍

Neutraalina merkkipaaluna Stanford julkaisi AI Index 2026 raportin, joka kannattaa ehdottomasti lukea osoitteesta https://hai.stanford.edu/ai-index/2026-ai-index-report

‍ ‍

Raportin keskeinen havainto on, että tekoälykyvykkyydet kehittyvät edelleen, mutta kustannukset niin rahallisesti, inhimillisesti kuin ekologisesti alkavat painaa enemmän vaakakupissa.

‍ ‍

Lauri Vasankari

Tekniikan tohtori, tekoälyn ja koneoppimisen diplomi-insinööri, sotatieteiden maisteri ja kapteeniluutnantti (evp). Vuosikymmenen sotilasuran jälkeen siirtynyt järjestelmien käyttäjästä ja asiantuntijasta suunnittelijaksi ja kehittäjäksi.

Seuraava
Seuraava

Vko 14 tekoälysää