EU AI Act -säädös muuttaa tapaa, jolla yritykset ottavat käyttöön, käyttävät ja kehittävät tekoälyjärjestelmiä. Mitä tämä tarkoittaa organisaatiollesi, miten se vaikuttaa tekoälyn käyttöön ja pystytkö noudattamaan säädöksiä? Tekoälyn nopea käyttöönotto liiketoiminnassa voi tuoda mukanaan merkittäviä tuottavuuden parannuksia ja tarjota arvokasta tukea työntekijöille. Eurostatin mukaan 42 % suurista yrityksistä (yli 250 työntekijää) käyttää jo tekoälyä, kun taas 13 % pienemmistä yrityksistä (yli 10 työntekijää) on alkanut ottaa sitä käyttöön. Tekoälyteknologioiden kehittyessä ja yleistyessä myös riskit kasvavat. Ne vaihtelevat valtavien koulutustietokantojen aiheuttamista tietosuojaongelmista rikolliseen väärinkäyttöön kyberhyökkäyksissä, algoritmien puolueellisuuteen, yksityisyyden loukkauksiin ja eettisiin kysymyksiin, kuten manipulointiin ja ihmisoikeuksien uhkaamiseen.
Vastauksena tähän EU on ottanut käyttöön maailman ensimmäisen kattavan tekoälylainsäädännön – eurooppalaisen tekoälylain (AI Act) – varmistaakseen tekoälyn vastuullisen kehittämisen ja käytön sekä suojellakseen kansalaisten terveyttä, turvallisuutta ja perusoikeuksia.
Mikä siis on EUn AI Act ja miksi se on tärkeä sekä yrityksille että yhteiskunnalle? Katsotaanpa sitä tarkemmin.
Mikä on EU AI Act?
EU AI Act -säädös, joka otettiin käyttöön 1. elokuuta 2024 ja tulee voimaan kokonaisuudessaan 2. elokuuta 2026, sääntelee tekoälyjärjestelmiä, jotka vaikuttavat EU:n alueella asuviin ihmisiin, vaikka ne olisi kehitetty alueen ulkopuolella. Sen tavoitteena on vähentää riskejä, kuten yksityisyyden loukkauksia, puolueellisuutta, manipulointia ja fyysistä vahinkoa, vaatimalla läpinäkyvyyttä, eettisiä suojatoimia ja ihmisten valvontaa:
- Läpinäkyvyys: Tekoälyjärjestelmien on selitettävä selkeästi, miten ne toimivat ja mitä riskejä ne aiheuttavat. Jos tekoälyjärjestelmä on suorassa vuorovaikutuksessa ihmisten kanssa (esim. chatbotit), sen on oltava selvästi tunnistettavissa tekoälyjärjestelmäksi.
- Eettiset suojatoimet: Laki luokittelee tekoälyn riskitasojen mukaan, kieltää haitallisimmat järjestelmät ja asettaa tiukat velvoitteet korkean riskin järjestelmille.
Inhimillinen valvonta: Inhimillinen valvonta on erityisen tärkeää korkean riskin tekoälyjärjestelmissä. Se varmistaa, että ihmiset voivat seurata, ymmärtää ja hallita näiden järjestelmien toimintaa. Korkean riskin tekoäly on suunniteltava siten, että se mahdollistaa ihmisten vuorovaikutuksen, jolloin ihmiset voivat varmistaa, että järjestelmä toimii turvallisesti, ja puuttua asiaan, jos jokin menee vikaan. Tavoitteena on estää yksilöiden terveyden, turvallisuuden tai perusoikeuksien vahingoittuminen. Kehittäjät, tarjoajat ja operaattorit ovat vastuussa tietojen laadun varmistamisesta, riskien arvioinnista ja tekoälyjärjestelmien toiminnan läpinäkyvyyden ylläpitämisestä. Korkean riskin järjestelmät on myös rekisteröitävä julkiseen tietokantaan, ja niissä tapahtuneet vaaratilanteet on raportoitava. Säännösten noudattamista valvotaan vaatimustenmukaisuuden arvioinneilla, sertifioinneilla ja rikkomuksista määrättävillä merkittävillä seuraamuksilla.
Säännösten noudattamatta jättämisestä voi seurata vakavia sakkoja – jopa 35 miljoonaa euroa tai enintään 7 % yrityksen edellisen tilikauden maailmanlaajuisesta kokonaisliikevaihdosta, riippuen siitä, kumpi summa on suurempi.