Tekoälyä käsittelevässä Kybertutkan lähetyksessä kyberturvallisuusvalvomon erityisasiantuntija Tomi Hasu keskusteli Jussi Paukun, CGI:n kyberturvallisuusvalvomon operatiivisen johtajan kanssa tekoälyn hakkeroinnista sekä tekoälyn ja kyberturvallisuuden mahdollisuuksista ja uhista.
Vaikka tekoäly tarjoaa suuria mahdollisuuksia, se tuo myös uusia riskejä. Hyökkääjät voivat hyödyntää tekoälyä omien päämääriensä saavuttamiseksi, mutta samaa teknologiaa voivat käyttää myös puolustajat suojautuakseen kyberuhkilta. Kybertutkassa tarkastelimme, kuinka tekoäly voi toimia sekä uhkana että työkaluna kyberturvallisuudessa, ja miten sen käyttöä voidaan hallita, jotta hyödyt saadaan maksimoitua ja riskit minimoitua.
Katso tai kuuntele jakso:
Keskustelun alussa Tomi Hasu korostaa, että tekoäly ei itse, kuten eivät muutkaan digitaaliset järjestelmät, ole immuuneja hyökkäyksille. Hyökkääjät pyrkivät manipuloimaan tekoälysovelluksen toimintaa, jossa tavoitteena on saada tekoälysovellus antamaan rikollisia neuvoja tai ohjeita tai sitten tekoälyä käytetään luomaan uskottavia huijausviestejä.
“Niin kutsuttuja ‘prompt-huijauksia’ on mahdollista saada läpi pienempiin tekoälysovelluksiin, joissa tekoälyagentilla on oma järjestelmäkohtainen prompti eikä sitä ole välttämättä suojattu yhtä huolellisesti kuin suurempia tekoälypalveluita”, täydentää Jussi Paukku. “Tällainen pienempi järjestelmä on helpompi saada paljastamaan tietoja tai vastauksia, joita sen ei tulisi koskaan jakaa.”
Tutustu tekoälyagenttien aikakauteen
Tiedonluokittelulla huijausyrityksiä vastaan
Nykyään yksi yleisimmistä hyökkäystavoista, joissa tekoälyä käytetään aktiivisesti, on erilaisten huijausten tehostaminen. Hyökkääjät hyödyntävät tekoälyä erityisesti parantaakseen huijausmenetelmiään, kuten tekaistujen viestien tai petosyritysten luomisessa.
“Lisäksi tekoälyllä voidaan luoda uskomattoman realistisia deepfake-videoita, joita ei aina pysty tunnistamaan huijaukseksi heti. Tällaisilla videoilla on suuri potentiaali aiheuttaa vakavia haittoja niin yksityisille henkilöille kuin organisaatioillekin”, kertoi Hasu.
Paukku korostaa, että tekoälyn tuottaman sisällön luotettavuuden parantamiseksi voidaan hyödyntää tiedonluokittelua ja metadatan käyttöä. “Esimerkiksi kuvamateriaaleissa metadatan avulla voidaan selventää, mitkä kuvat ovat tekoälyn tuottamia ja mitkä eivät. Tämäntyyppinen lähestymistapa voi auttaa lieventämään tekoälyn aiheuttamia haittavaikutuksia, sillä metatiedoissa voidaan tarkasti määritellä kuvan alkuperä ja käsittelytiedot. Tällöin esimerkiksi deepfake-videoiden tunnistaminen on huomattavasti helpompaa, mikä vähentää niiden käyttämistä huijaustarkoituksiin.”
Tekoäly puolustajien käsissä
Koska hyökkääjät hyödyntävät tekoälyä, puolustajien on järkevää käyttää samaa teknologiaa omaksi edukseen.
Hasu mainitsee, että tekoäly voi olla erityisen tehokas haittaohjelmien alkuvaiheen tunnistamisessa. "Tekoäly voi auttaa tunnistamaan haittaohjelmia nopeasti, mutta sen hyöty on suurimmillaan juuri alussa, kun datamäärä on hallittavissa", hän tarkentaa.
Tekoäly voi myös auttaa arjessa, kuten epäilyttävien sähköpostiviestien tunnistamisessa. “Tunnistamiseen ei tietenkään voi luottaa aukottomasti. Tekoäly voi analysoida viestin sisällön ja auttaa määrittämään, onko viesti aito vai haitallisessa tarkoituksessa lähetetty", Paukku selittää.
Toinen hyödyllinen sovellusalue on tekstipohjaisten sovellusten käyttäminen suuren datamassan seulomiseen. Tekoäly voi tiivistää satoja raportteja ja tuottaa kokonaiskuvan nopeasti, mikä helpottaa päätöksentekoa. Tämä on erityisen arvokasta liiketoiminnassa, jossa ajankäyttö on kriittistä ja oikea-aikainen tieto voi tehdä eron kilpailukyvyn säilyttämisessä.
Tässä kohtaa Paukku muistuttaa, että EU:n tietosuoja-asetusten mukaisesti organisaatioiden on huolehdittava siitä, että niiden data ei koskaan joudu EU:n rajojen ulkopuolelle. "Tekoäly voi olla tehokas työkalu, mutta tietosuoja on otettava aina huomioon", hän painottaa. On oleellista ymmärtää, että vaikka data sijaitsee organisaation pilvessä, tekoäly, joka käyttää tätä dataa, ei välttämättä sijaitse samassa paikassa.
Onko tekoäly aina pilvessä?
Tekoälyratkaisut liitetään usein pilvialustoihin, mutta ei ole aina tarpeen käyttää suuria pilvipalveluja. Hasu korostaa, että tietyissä tilanteissa, kuten turvaluokitellun datan käsittelyssä, tekoäly voidaan tuoda lähemmäs dataa sen sijaan, että data siirrettäisiin pilveen. "Pienemmät, tarkemmin määritellyt tekoälyratkaisut voivat riittää", Hasu sanoo.
Esimerkkinä tästä on CGI:n NATO:lle toteuttama ratkaisu, jossa tekoälyavusteiset sovellukset käsittelevät dokumentteja ja tekevät niistä päätelmiä sekä tiivistelmiä.
“Tämä ratkaisu toimii NATOn salaiseksi turvallisuusluokitellussa ympäristössä, joka on täysin eristetty internetistä ja toimii suljetussa tietoverkossa. Kotimainen vastine voisi olla esimerkiksi TL2+, joka on jo korkea turvaluokitus”, Paukku toteaa.
Tekoälypohjaisia ratkaisuja on täysin mahdollista toteuttaa eristetyissä ympäristöissä, ja on hyvä muistaa, että kaikki ei tarvitse olla valtavassa konesalissa tai pilvessä. Sovellusalueesta riippuen voidaan kehittää ratkaisuja, jotka vaativat vain rajallisia resursseja. “Jos käyttäjämäärä on rajoitettu, eivät kapasiteettivaatimukset ole erityisen korkeat. Tämä tarkoittaa, että algoritmien valinta ja ongelman jakaminen pienempiin osiin ovat ratkaisevia tekijöitä tekoälyratkaisujen tehokkuudelle”, Hasu kiteyttää.