Tekoäly voi olla sekä voimavara että uhka Kymenlaakson yrityksille
– Tekoälyn avulla voidaan esimerkiksi automatisoida aikaa vieviä prosesseja ja parantaa asiakaspalvelua, mutta sama teknologia mahdollistaa rikollisille aiempaa uskottavammat huijaukset, selventää kyberturvallisuuden asiantuntija Markus Hölsä Kaakkois-Suomen ammattikorkeakoulusta.
Hölsä on tehnyt selvityksen, jossa tarkastellaan tekoälyn ja koneoppimisen vaikutuksia suomalaisille yrityksille. Työssä analysoitiin sekä kansainvälisiä että kotimaisia esimerkkejä tekoälyn soveltamisesta eri toimialoilla ja haastateltiin aiheen asiantuntijoita heidän kokemuksistaan, tarpeistaan ja varautumistasostaan tekoälyn hyödyntämisessä.
Myös Kymenlaakson yritysten on varauduttava tekoälyn tuomiin riskeihin. Tällä hetkellä monelta yritykseltä puuttuvat selkeät käytännöt tekoälyn hyödyntämisestä, mikä kasvattaa riskiä hallitsemattomille tietovuodoille ja virheellisille päätöksille.
– Yritysten tulisi tehdä kattavat riskienarvioinnit tekoälyn käytöstä sekä huolehtia tietojen ja koulutusdatan turvallisuudesta, Hölsä muistuttaa.
– Niiden tulisi myös kouluttaa henkilöstöä tunnistamaan tekoälyavusteisia huijauksia sekä päivittää tekniset suojausjärjestelmänsä säännöllisesti.
Kymenlaaksossa tyypillisiltä toimialoilta löytyy useita käytännön esimerkkejä tekoälyn hyödyistä ja riskeistä.
– Logistiikassa ja satamatoiminnoissa tekoäly voisi optimoida kuljetusreittejä, tehostaa varastointia ja ennustaa kysyntää, mutta samalla on suojattava sensitiivinen kuljetusdata tietovuodoilta. Teollisuudessa tekoäly voi tukea laadunvalvontaa ja kunnossapidon ennakointia, mutta riskiksi voi tietenkin muodostua liiallinen riippuvuus ulkoisista palveluista ja hallitsemattomasta tiedon siirtymisestä kilpailijoille, Hölsä listaa.
– Pk-yrityksissä ja palvelualoilla tekoäly voi parantaa tehokkuutta automatisoimalla asiakaspalvelua, kohdentamalla markkinointia ja tunnistamalla tulevia huijauksia – riskit muodostuvat tekoälyn käytön pelisääntöjen puuttumisesta ja ilmaisten tekoälysovellusten tuomista rajoitteista sekä haavoittuvuuksista.
Suomen kieli ei enää suojaa
Tekoälymallien, kuten ChatGPT:n, nopea kehitys on tuonut mukanaan myös uusia tietoturva- ja luotettavuusriskejä. Yksi merkittävä huolenaihe on se, että käyttäjät voivat yrittää huijata tekoälyä antamaan ohjeita tai tietoja, joita sen ei normaalisti pitäisi paljastaa. Lisäksi on mahdollista, että tekoälyn opettamiseen käytetty dataa muokataan tahallisesti harhaanjohtavaksi – tätä kutsutaan mallin myrkyttämiseksi – mikä voi johtaa virheellisiin tai jopa vaarallisiin vastauksiin.
Selvityksen mukaan tekoälymallit, kuten suuret kielimallit, voivat tuottaa sujuvaa suomenkielistä tekstiä, väärennöksiä ja jopa aitoja henkilöitä jäljitteleviä ääniä. Tämä murtaa aiemmat kielimuurit, jotka suojasivat suomalaisia monilta verkkohuijauksilta.
– Esimerkiksi tekoälyllä väärennettyjen videoiden ja äänitteiden avulla rikolliset voivat lavastaa uskottavia tilanteita, joissa uhri uskoo puhuvansa tutulle henkilölle, Hölsä kertoo.
Tekoälyyn liittyy myös informaatiovaikuttamisen riski. Väärä tai tarkoitushakuinen data voi levitä suurten kielimallien kautta, ja väärennetty sisältö voi aiheuttaa suurtakin polarisaatiota yhteiskunnassa.
– Kun sama väärä tieto toistuu useissa lähteissä, se voi näyttää luotettavalta, mikä uhkaa internetin tiedon luotettavuutta ja eheyttä, Hölsä varoittaa.
Selvitys Tekoälyn uhat ja mahdollisuudet yrityksissä on osa Kyberturvan tulevaisuus Kymenlaaksossa -hanketta, jota rahoitetaan Kymenlaakson liiton kautta Euroopan unionin Oikeudenmukaisen siirtymän rahastosta (JTF). Selvitys sekä aiemmat selvitykset ja materiaalit ovat saatavilla osoitteessa kyberasema.fi.