Olen viime vuosina saanut seurata läheltä, miten tekoälysovellukset alkavat hiljalleen juurtua osaksi eri organisaatioiden arkea – niin yrityksissä, järjestöissä kuin julkisella sektorilla.

Olen myös kouluttanut monenlaisia organisaatioita tekoälyn mahdollisuuksista – ja samalla huomannut jotakin huolestuttavaa: Tekoälyn käytön eettisiä, viestinnällisiä ja maineeseen liittyviä riskejä ei ole vielä ymmärretty riittävän syvällisesti.

Nyt ei ole tarkoitus pelotella tai syytellä. Pikemminkin haluan jakaa pohdintaani ja havaintojani – ja ehkä avata keskustelun siitä, mitä meidän olisi hyvä ottaa vakavasti ennen kuin ongelmat yllättävät meidät.

Tekoäly tarjoaa hyötyjä – mutta myös uusia haasteita

On selvää, että tekoälyllä voidaan tehostaa prosesseja, parantaa asiakaskokemusta ja vapauttaa ihmisten aikaa merkityksellisempään työhön. Tekoäly ei kuitenkaan ole vain neutraali apuväline. Se muuttaa samalla:

  • Työn rakenteita erityisesti tietotyössä.

  • Johtamisen ja omistajuuden vaatimuksia.

  • Vastuullisuuden, arvojen ja viestinnän pelisääntöjä.

  • Ympäristövaikutusten arviointia ja raportointia.

Olen huomannut, että vaikka tekninen innostus tekoälyä kohtaan on suurta, kokonaisvaltainen vastuullisuuden ja eettisten vaikutusten arviointi jää helposti taka-alalle. Vielä vähemmän on keskusteltu siitä, mitä riskejä tekoälyn näkyvä ja kasvava rooli tuo organisaatioiden maineelle ja luottamukselle.

Some-maailma muuttuu tekoälyn myötä – ja tuo mukanaan uusia riskejä

Olen aktiivinen sosiaalisen median seuraaja ja käyttäjä, ja viime kuukausina olen nähnyt yhä enemmän ilmiöitä, jotka huolestuttavat. Tekoälyllä tuotetut bottiprofiilit ovat yleistyneet nopeasti esimerkiksi Threadsissä – ja ilmiö laajenee koko ajan muillekin alustoille.

Miksi tämä on ongelma?

Koska tekoälybotit näyttävät aidoilta ihmisten profiileilta ja osaavat nykyään osallistua keskusteluun tavalla, joka saa ne näyttämään aidoilta ihmisiltä. Kun toimitusjohtaja, omistaja, hallituksen jäsen tai muu avainhenkilö keskustelee julkisesti bottitilin kanssa – tietämättään – hän altistaa itsensä:

  • Julkiselle naurunalaiseksi joutumiselle.

  • Epäuskottavuuden tunteelle.

  • Mainehaitalle, jota on vaikea korjata jälkikäteen.

Somekohu voi syntyä tänä päivänä hetkessä – ja levitä hetkessä niin yritysten, järjestöjen kuin julkisten toimijoidenkin kohdalla. Erityisesti, jos on kyse jostain sensitiivisestä aiheesta, nostaa media asian melko varmasti näkyviin ja haitat voivat olla merkittäviä.

Näissä tilanteissa ei välttämättä ole kyse huolimattomuudesta tai osaamattomuudesta. Kyse on myös siitä, että pelisäännöt ovat muuttuneet, mutta emme ole vielä mukauttaneet toimintaamme niiden mukaisesti.

Vastuu tekoälyn käytöstä on meillä kaikilla

Tekoälyn käyttöönotto ei ole vain tekninen tai operatiivinen kysymys. Se on myös strateginen, eettinen ja viestinnällinen kysymys, joka koskee koko organisaatiota – riippumatta sektorista tai toimialasta.

Olen kokenut, että vastuullinen tekoälyn hyödyntäminen edellyttää yhteistä tahtotilaa ja valmistautumista:

  • Tietohallinto vastaa siitä, että järjestelmät ovat turvallisia ja energiatehokkaita.

  • HR huolehtii henkilöstön muutosvalmiudesta ja uudelleenkoulutuksesta.

  • Viestintä rakentaa luottamusta, avoimuutta ja suojelee organisaation mainetta.

  • Johtoryhmä, hallitus ja omistajat ohjaavat ja valvovat tekoälyn käyttöä organisaation arvojen mukaisesti.

Tekoälyn mahdollisuudet ja riskit eivät siis ole vain IT-osaston asia. Ne ovat meidän kaikkien vastuulla, jotka haluamme rakentaa kestävästi johdettuja ja arvostettuja organisaatioita – yrityksiä, järjestöjä ja julkisia yhteisöjä.

Miten voimme valmistautua viisaasti?

Oman kokemukseni ja näkemykseni perusteella suosittelisin jokaiselle organisaatiolle ainakin seuraavia askelia:

🔹 Laadi selkeä tekoälyn vastuullisuuslinjaus:
Mihin tarkoituksiin tekoälyä käytetään? Miten varmistetaan eettisyys ja ekologisuus, koska tekoälysovellusten käyttö aiheuttaa merkittävästi energiankulutusta.

🔹 Kartoita ja raportoi avoimesti:
Selvitä ja ole valmis julkaisemaan tiedot käytetyistä tekoälysovelluksista ja niiden vaikutuksista esim. ympäristökuormitukseen ja eettisiin periaatteisiin. Niitä tullaan arvioimaan, vertailemaan ja seuraamaan julkisesti.

🔹 Kouluta johto, hallitus ja avainhenkilöt some-riskien tunnistamiseen:
Opeta hyödyntämään tekoälysovelluksia, sekä miten tunnistaa bottitilit ja välttää julkisia mainehaittoja.

🔹 Vahvista viestinnän, HR:n ja IT:n yhteistyötä:
Rakenna yhteinen toimintamalli tekoälykulttuurin ymmärtämiseen ja mahdollisten somekriisien varalle.

🔹 Valmenna hallituksen ja johdon tekoälyosaamista:
Heidän roolinsa muutoksen tukemisessa ja vastuullisuuden varmistamisessa on ratkaiseva.

Lopuksi: tekoäly haastaa meidät katsomaan syvemmälle

Haluan korostaa, ettei tekoälyn käyttöönotossa ole kyse pelkästä tehokkuudesta tai kulusäästöistä. Kyse on ennen kaikkea luottamuksesta – ja siitä, millaisen tulevaisuuden me haluamme rakentaa.

Minusta on viisaampaa kysyä nämä vaikeat kysymykset nyt – kuin katua myöhemmin, että emme valmistautuneet ajoissa.

Tulevaisuus kuuluu niille organisaatioille, jotka uskaltavat yhdistää teknologisen edistyksen vastuullisuuteen, inhimillisyyteen ja rohkeaan johtajuuteen. Uteliaisuus on työelämän supervoima, jota kannattaa tukea valppaudella.

ps. Jos sinun organisaatiossasi kaivataan ulkopuolista sparraajaa näihin kysymyksiin, ota vapaasti yhteyttä.

Jukka Saksi
KTT, MBA, viestintä- ja tekoälykouluttaja, advisor
+358405018357
jukka.saksi@johtajaonmedia.fi

TILAA MAKSUTON UUTISKIRJEENI

”Autan organisaatioita viestimään avoimesti ja hyödyntämään tekoälyä johtamisen, viestinnän ja arvojen vahvistamiseksi” kouluttajan sekä advisorin rooleissa.

Arvovalta-kirjan (2020) ja Johtaja on Media! -kirjan (2016) kirjoittaja. Toiminut yli 10 v johtamistehtävissä ennen yrittäjyyttä. Alunperin artesaani, jonka jälkeen aikuisopiskellut MBA ja kauppatieteiden tohtori. Väitöskirja finanssialan johtajuudesta (2013).

Löytyy  Linkedinistä, Facebookista, Instagramista, Threadsista ja BlueSkysta. Linkit sisältöihin ja palveluihin löytyvät täältä.