Siirry sisältöön

Loistouutisia roboteille! – AGI on pian täällä

Julkaistu: 11.1.2024

Ari Laitala & Maarit Pihkala

Vaikka keskustelevat tekoälyt ovat kehittyneet jättiharppauksin viime vuosina, on yksi ominaisuus vielä loistanut poissaolollaan.

Tekoäly osaa keskustella syvällisesti maailmankirjallisuuden klassikoista, luoda projektisuunnitelmia, käydä katsomassa Youtube-videoita ja pyöräyttää diasetin suhteellisuusteoriasta. Mutta se ei kuitenkaan tiedä mitään siitä, mitä sen lähiympäristössä tapahtuu. Vaikka tekoälysovellukset kykenevät esim. surffaamaan netissä ja hakemaan sieltä tuoreita tietoja, eivät ne varsinaisesti vielä havainnoi ympäristöään, eivätkä varsinkaan osaa tulkita näkemäänsä. Laajoihin kielimalleihin perustuvat keskustelevat tekoälyt ovat vieläkin pohjimmiltaan kysymys-vastauskoneita, vaikkakin äärimmäisen kehittyneitä sellaisia.

Kapean tekoälyn alueella on toki nähty vaikuttavia esimerkkejä, kuten vaikkapa taannoisen Zen Roboticsin konenäkökyky, jonka avulla se pystyi erottelemaan purkumateriaalijakeita liukuhihnalta. Mutta kyky tulkita ja sanoittaa yleisellä tasolla ympäristön tapahtumia on vielä antanut odotuttaa itseään.  

Mikä on AGI?

AGI tulee sanoista Artificial General Intelligence. Sillä tarkoitetaan vahvaa – ihmismäistä – tekoälyä. Tarkempia ja yhteisiä määritelmiä ei kuitenkaan ole. Kaikki toimijat eivät näytä edes liittävän näkökyvyn vaatimusta vahvan tekoälyn määritelmään. Ihmismäinen tekoäly lienee kuitenkin sellaista, johon kuuluu kyvykkyys havaita ympärillä olevia tapahtumia ja tehdä niistä tulkintoja. Tällainen älykkyyden laji taitaa itse asiassa olla vanhempaa perua kuin puhekyky. Jo ihmiskunnan aamuhämärässä on eloonjäämiseen kannalta ollut oleellisen tärkeää tehdä havaintoja ja päätelmiä lähiympäristön tapahtumista.

Google hämmästytti tekoälykehitystä seuraavaa maailmaa joulukuun 2023 alussa. Tällöin pidetyssä esittelytilaisuudessa Google esitteli Gemini tekoälyään, joka kykeni hämmästyttävän sujuvasti tulkitsemaan reaaliaikaisesti ympärillään tapahtuvia asioita, kuten vaikkapa sitä, miten yksittäin paperille lisätyistä viivoista vähitellen piirtyi erilaisia hahmoja.

Ohikiitävän hetken näytti siltä, että viimeinkin ihmisen kaltaisen älyn puuttuva palanen oli syntynyt. Live-pohjaisen demonstraation sijaan Googlen lanseeraustilaisuus tapahtui kuitenkin videoyhteyden välityksellä. Eikä ensin ollut varmuutta, onko kyse reaaliaikaisesta streamauksesta, vaiko etukäteen muokatusta videosta.

Pian tuotiinkin julki, että kyse oli etukäteen tuotetusta videosta. Pettymyksen huokauksia oli kuultavissa joka suunnalta ja kaikista medioista. Toisaalta oli kuitenkin pääteltävissä, että Google on edennyt huomattavan pitkälle yleisen konenäkökyvyn kehityksessä. Tuskinpa se hupimielessä tai yleisöä erehdyttääkseen tällaisia videoita julkistaisi. Ja loppuvuodesta 2023 onkin jo tiedossa, että Gemini on pian tulossa markkinoille, mutta ensi alkuun ilman näkökykyä kuitenkin.

Robottien kissanpäivät?

Kun yleinen konenäkö ja samalla vahva tekoäly AGI vielä hiukan kehittyvät, ovat edellytykset robotiikan seuraavalle kehitysloikalle olemassa. Keskustelevien tekoälyjen kieli ja on niin kehittynyttä, että luonteva kommunikointi myös ympäristön tapahtumista tekoälyn kanssa mahdollistuu. Tämä avaa uuden kommunikaatioulottuvuuden ihminen-kone rajapinnassa. Voimme pian keskustella vaikkapa huoneen sisustusratkaisuista, televisio-ohjelmista tai käydä yhdessä läpi kirjoitettuja paperidokumentteja, asiakirjoja yms. Robotit osaavat pian nostaa kaukosäätimen lattialta tai tuoda jääkapista juuri oikean merkkistä limonadia 😊

Ihmisen parhaat ystävät ovat vuosituhansia olleet nelijalkaisia ja karvaisia, mutta miten mahtaa käydä siirryttäessä 2030-luvulle?

PS. tekstissä mainitun Googlen videon pääset näkemään täältä.

Kirjoittajat: Ari Laitala & Maarit Pihkala


Lue lisää!

Viimeisimmät blogikirjoitukset