Jorma Nordlin

Vaatiiko tekoäly "syrjintätestauksen"?

Google näytti naisille mainoksia, jotka olivat tarkoitettu henkilöille, jotka ovat pienituloisia. Oliko tekoäly  tässä tapauksissa syrjivä, vai kertoiko se vain meistä? Algoritmi oppii siitä, miten me olemme toimineet. Esimerkiksi siitä miten me klikkaamme mainoksia tai valitsemme tuotteita. Vaikka tekoälyalgoritmilla ei olisi käytössä suoraan tietoa onko henkilö nainen, maahanmuuttaja, tai tummaihoinen, tieto voidaan päätellä riittävällä tarkkuudella jos on käytettävissä riittävät lähtötiedot.

Tekoälyalgoritmista on vaikea löytää algoritmin osaa, tai niitä tietoja, josta syrjivältä näyttävä algoritmin toiminta voi johtua. Sellaiset tiedot ovat myös tekoälyä käyttävien yritysten liikesalaisuuksia. Toteutettaessa palveluja, joissa sovelletaan tekoälyä olisikin syytä tehdä eräänlaisia "syrjintätestejä", joissa palvelua testataan erilaisiin ihmisryhmiin kuuluvien käyttäjien kanssa. Testauksessa saatujen havaintojen perusteella haasteena voi olla se, miten tekoälyn toimintaa pitäisi opettamalla muuttaa. Esimerkiksi opetusaineistoa pitäisi käsitellä halutulla tavalla, jotta tekoälyn toiminta muuttuisi parempaan suuntaan.

Jos esimerkiksi ammatillista koulutusta mainostava ja tietoa ammatillisesta koulutuksesta tarjoava tekoälyä käyttävä palvelu opetetaan sen perusteella, minkälaisista ammatillista koulutusta ihmiset ovat etsineet, niin tulokset voivat olla toisinaan yllättäviä. Esimerkiksi irakilainen maahanmuuttaja, joka etsii tietoa yliopiston fysiikan opinnoista voi saada suosituksia ja mainoksia vartijakoulutuksesta, tai kursseista, joissa suoritetaan hygieniapassi. Sinänsä siitä ei ole kovinkaan paljoa haittaa, jos kuitenkin tarvittava tieto löytyy.  Julkisissa palveluissa toimiva tekoälyn sovellutus voi suositella lastensuojelun palveluita perheenäidille, joka ei ole näiden palvelujen tarpeessa.

Algoritmi opettelee sen perusteella, miten muut ovat toimineet. Jos tekoäly opetetaan opetusaineistolla esimerkiksi tekemään poliisin puolesta valinnat kenen henkilöllisyys pitää tarkistaa kadulla, niin todennäköisesti siitä tulisi mediassa kova häly. Eikä opetusaineistossa ja tekoälyn toiminnassa olisi välttämättä mitään vikaa sinänsä.

Kirjoituksen lähteenä on käytetty Elements of Ai-kurssin materiaalia. (Reaktor, Helsingin yliopisto)

Piditkö tästä kirjoituksesta? Näytä se!

0Suosittele

Kukaan ei vielä ole suositellut tätä kirjoitusta.

NäytäPiilota kommentit (3 kommenttia)

Käyttäjän jormanordlin kuva
Jorma Nordlin

Kun tekoälyn käyttö yleistyy julkisissa palveluissa ja yritysten tarjoamissa palveluissa, niin jossain vaiheessa todennäköisesti nousee mediassa esiin tapauksia, joissa tekoälypalvelu on toiminut tavalla, joka aiheuttaa käyttäjissä hämmennystä ja pahaa mieltä. Niissä tilanteissa tekoälyn toimintaa joudutaan korjaamaan.

Käyttäjän ToniRintala kuva
Toni Rintala

Tekoäly toimii kuten se on ohjelmoitu toimimaan.
Joskus lopputulos yllättää, vaikka se toimisi "oikein".
Aika usein ohjelmassa on bugi, joka yllättää ;)
Joskus pitää oikein toimivaa ohjelmaa komentaa toimimaan väärin, jotta lopputulos on hyväksyttävissä..

Käyttäjän jormanordlin kuva
Jorma Nordlin

Sen toimintaa ei ohjelmoida. Sen avulla saadaan tehtyä ohjelmoimatta asioita, jotka ovat perinteisillä ohjelmointitekniikoilla vaikeita ja työläitä toteuttaa.

Se missä siinä ohjelmointia tarvitaan, niin kun sitä otetaan käyttöön, eli esimerkiksi määritellään kuinka paljon neuroverkossa on kerroksia ja neuroneita jne. ja sitten kun sitä esimerkiksi opetetaan niin tehdään skriptipätkiä, jolla verkkoa käytetään opetusmateriaalin kanssa.

Toimituksen poiminnat

Tämän blogin suosituimmat kirjoitukset