Kumppaniblogi: Vire Advisors
Tiesitkö, että useat HR:n arkipäiväiset järjestelmät luokitellaan EU:n tekoälylainsäädännössä korkean riskin tekoälyksi? Monet HR-tiimit käyttävät siis jo tällaisia järjestelmiä, usein tietämättään.
Tätä et ehkä tiennyt, mutta toivottavasti tämä auttaa priorisoimaan valmistautumisen tekoälylainsäädäntöön. EU AI Act -rikkomuksesta seuraava sakko voi olla jopa 7 % yrityksen maailmanlaajuisesta liikevaihdosta. Vertailun vuoksi EU Equal Pay -rikkomuksen enimmäistaso on 4 %.
Yritysriskit ovat siis mittavat. Samalla tekoälyn tuomat mahdollisuudet kilpailukyvyn vahvistamiseen ovat välttämättömät. Iloitsen suuresti siitä, että EU-tasoisesti meillä on sääntely kunnossa, näin ei ole EU:n ulkopuolella. Haluan kuitenkin pikaisesti kannustaa kaikkia HR-osaajia aloittamaan valmistelut ja tarkistukset nyt, jotta oma yritys ei tietämättään riko tekoäly asetusta. Tämä on myös juuri sitä eettisen tekoälyn käytön varmistamista.
Tässä blogissa kerrotaan selkeästi ne konkreettiset askeleet, jotka jokaisen HR-tiimin tulee nyt ottaa. Vuosi 2026 ei ole aloituspiste. Se on takaraja.
EU AI Act – nopea kertaus mitä ja milloin viimeistään

Miksi HR on suoraan etulinjassa
Yksinkertainen arviointikriteeri on, että jos järjestelmä vaikuttaa yksilön työllistymiseen, urakehitykseen tai palkitsemiseen, se on todennäköisesti korkean riskin järjestelmä. Suurin osa HR:n hallinnoimista järjestelmistä on tällaisia.
Tällaiset järjestelmät eivät ole kiellettyjä. Monissa yrityksissä ne ovat toimivan tekemisen ja yrityksen toiminnan elinehto, mutta nyt EU-tasoinen lainsäädäntö velvoittaa, että järjestelmien tekoälyautomaatioiden ymmärrys ja dokumentointi ovat kunnossa. HR ei voi ulkoistaa tätä vastuuta IT:lle, riskin omistaa se, joka käyttää järjestelmää osana henkilöstöpäätöksiä.
Suurin harhaluulo: “Me emme käytä tekoälyä HR-prosesseissa”
Moni HR-organisaatio ajattelee, että tekoäly tarkoittaa vain generatiivista tekoälyä tai chatbotteja. Todellisuus on toinen. Tekoälyä on käytetty HR-järjestelmissä jo vuosia.
Monet kansainväliset HR-teknologiatoimittajat tarjoavat ominaisuuksia, jotka ovat sallittuja EU:n ulkopuolella, mutta rajoitettuja tai jopa kiellettyjä EU:ssa. Jos järjestelmä on kehitetty Yhdysvalloissa tai Aasiassa, on kriittistä varmistaa, että EU-alueella käytössä ovat vain sallitut toiminnallisuudet. Vastuu ei siirry toimittajalle – vastuu on aina yrityksellä, joka käyttää järjestelmää.
Ilman systemaattista kartoitusta HR ei voi tietää, mitä sen nimissä tapahtuu ja millaisia yritysriskejä olemassa olevat HR-järjestelmät pitävät jo sisällään.
HR:n välittömät toimenpiteet
1. Tee HR työkaluista AI toiminnallisuuksien kartoitus
Yllättävän harva HR-johtaja tai -päällikkö pystyy tällä hetkellä vastaamaan täsmällisesti kysymykseen, missä kaikissa HR-prosesseissa tekoälyä jo käytetään.
Listaa kaikki HR:n käyttämät järjestelmät. Älä unohda kumppaneiden käyttämiä järjestelmiä, esimerkiksi työterveyttä tai ulkoistettua palkanlaskentaa. Ulkoistamiselle ei voi siirtää vastuuta.
Tekoälyn eettinen ja lainmukainen käyttö alkaa ymmärryksestä.
2. Arvioi riskiluokitus
Osana järjestelmäarvioita ja dokumentointia on tehtävä riskiluokitus. Tekoälyä käyttävät järjestelmät jaetaan neljään luokkaan.
Jos et ole varma, kuuluuko jokin ratkaisu kiellettyyn kategoriaan, vastuullinen ratkaisu on keskeyttää käyttö, kunnes arvio on tehty.

3. Vastuullinen viestintä on jatkossa lakisääteinen HR velvoite
On tärkeää, että jos esimerkiksi rekrytointijärjestelmässä on tekoälypohjaista seulontaa käytössä, siitä kerrotaan hakijoille jo hakemuksen tekemisen yhteydessä. Tai kun virtuaalinen HR työntekijä hoitaa rutiininomaiset, toistuvat työntekijöiden kysymykset, on varmistettava että työntekijät tietävät viestivänsä tekoälyautomaation kanssa. Monissa yrityksissä tarvittavat tiedoksiannot ovat jo hienosti käytössä.
4. Rakenna ja varmista todellinen, helposti seurattavissa oleva ihmisen suorittama valvonta
Human oversight, eli ihmisen suorittama valvonta, tulee olla kunnossa viimeistään 2026 elokuun lopussa. On todennäköistä, että nykyisessä työmarkkinatilanteessa työnhakijat alkavat aktiivisesti kysyä, miten tekoälyä käytetään ja miten sen käyttöä valvotaan. Samoin varmasti tekevät työntekijät.
Mitä ihmisen suorittama valvonta käytännössä tarkoittaa?
- Se tarkoittaa todellista mahdollisuutta arvioida ja kyseenalaistaa algoritmin tuottama tulos, mahdollisuutta ohittaa suositus sekä selkeästi määriteltyä ja dokumentoitua päätösvastuuta.
Työkykyyn liittyvä luokittelu tai suoriutumisen arviointi ei saa muuttua automaattiseksi algoritmin tuotokseksi. Päätösvastuun on oltava selkeä ja todennettavissa. Jos organisaatiossa ei ole määritelty, missä kohtaa ihminen tarkastaa tekoälyn tuottaman ehdotuksen ja kuka kantaa lopullisen vastuun, valvonta on näennäistä.
5. Linjatkaa tekoälyn käyttö ja osaaminen strategisesti
Asetus ei velvoita vain järjestelmiä, vaan myös osaamista. Yrityksen on kyettävä osoittamaan, että tekoälyn käyttö ymmärretään ja sitä hallitaan.
Moni esihenkilö käyttää omia AI sovelluksiaan yrityksen tarjoamien ratkaisujen sijaan – tämä on riski, joka on tunnistettava ja hallittava.
AI-koulutus ei ole inspiraatiopäivä tai työkaludemonstraatio eikä workshop siitä, miten tekoälyä yrityksessä voidaan hyödyntää paremmin. Niitäkin ehdottomasti tarvitaan, mutta EU AI -asetukseen liittyen tulee kouluttaa riskien, vastuun ja päätöksenteon ymmärrystä. Jos tätä ei rakenneta systemaattisesti, organisaatio käyttää teknologiaa, jota se ei hallitse.
6. Rakenna seurantamalli nyt
Helmikuu on täällä, jälkivalvontaa ja riskien seurantaa koskevat velvoitteet ovat voimassa. Organisaatiolla on oltava toimiva malli tekoälyn käyttöön liittyvien riskien tunnistamiseen, seurantaan ja raportointiin.
Minimivaatimus on selkeä riskien seurantaprosessi, määritelty poikkeamien raportointi ja dokumentoitu laadunhallinta. Ilman näitä tekoälyn käyttö ei ole todennuttavasti hallittua.
Mahdollisuus ottaa vahvempi rooli yrityksen strategiassa
EU AI Act on helppo nähdä hallinnollisena velvoitteena. Todellisuudessa se on lakisääteinen vaade, joka on jo täällä. HR on vastuussa omista työkaluistaan jotka usein hyödyntävät korkean riskin tekoälyä.
Ensimmäinen askel riskien minimoinnissa on realistinen tilannekuva. Jos organisaation sisältä ei löydy aikaa tai osaamista HR-työkalujen tekoälyominaisuuksien kartoittamiseen ja riskiluokitukseen, se on täysin ok – ollaan uuden äärellä ja HR työpöydällä on nyt juuri paljon. Ulkopuolisen asiantuntijan hyödyntäminen on tässä kohdin vastuullinen ratkaisu. Kyse ei ole vain teknisestä arviosta, vaan HR liitännäisten yritysriskien tunnistamisesta ja hallinnasta, dokumentoinnista ja prosessien läpinäkyvyydestä, mutta myös työntekijäkokemuksesta ja työnantajamielikuvasta.
Kysymys ei ole siis siitä, käytetäänkö henkilöstön hallinnassa ja johtamisessa tekoälyä. Lähes kaikki käyttävät jo. Kysymys on siitä, onko käyttö hallittua. Ja muikkarina, vuosi 2026 ei ole aloituspiste. Se on takaraja.
Kirjoittaja:
Pirki Väisänen // Vire Advisors
