Tulevaisuudessa tekoäly profiloi sinut – eikä välttämättä oikeudenmukaisella tavalla
Naisasialiike, klassinen liberalismi… Taistellaanko seuraavaksi tasa-arvosta koneen edessä?
Kuvittele mielessäsi tilanne. Olet hakemassa elämäsi ensimmäistä asuntolainaa tai matkalla kohti mahdolliseen unelmaduuniin johtavaa työhaastattelua. Mielessäsi pyörivät skenaariot siitä, kuinka annat itsestäsi mahdollisimman positiivisen, vastuullisen ja todenmukaisen kuvan. Vahinko vain, että kertoimet puolestasi on suurelta osin laskettu jo etukäteen, sillä tekoälyyn perustuva helppokäyttöinen applikaatio on jo rouskuttanut laskelmiinsa kaiken mahdollisen siitä, mitä digitaalisesta jalanjäljestäsi irti saa.
Kuulostaako oikeudenmukaiselta? Pelottavalta? Siksi tekoälyn etiikasta kannattaisikin olla jo kiinnostunut.
Z-sukupolven digijalanjälki on yli 90-prosenttinen
Meritokratiaa eli ihmisen taitoihin ja kyvykkyyksiin sekä mahdollisuuksien tasa-arvoon perustuvaa etenemistapaa yhteiskunnassa on totuttu pitämään melko oivallisena järjestelynä – ainakin niin pitkään kuin meriitit ja niiden perusteella eteneminen on läpinäkyvää, kaikille ymmärrettävää.
Meritokratia-termin keksinyt sosiologi Michael Young koki itse kuitenkin koko ajatuksen ongelmalliseksi. Hänen mielestään ihmisen meriitit ja lahjat ovat pitkälti määrittelykysymys – ja pirun vaikea sellainen.
Ihmisistä saatavan datan määrä on räjähtänyt käsiin.
Jos perinteinenkin meritokraattinen ajattelu on haastavaa, niin digitaalinen meritokratia vasta hankalaa onkin. Ihmisistä saatavan datan määrä on räjähtänyt käsiin. Vuoden 1995 jälkeen syntyneen Z-sukupolven digitaalisen jalanjäljen on arvioitu olevan yli 90-prosenttinen.
Jos annamme tekoälylle vallan profiloida, analysoida ja – pelottavaa kyllä – priorisoida meitä, mihin meitä koskevat päätökset ja päättelyketjut oikein perustuvat?
Jos annamme tekoälylle vallan priorisoida meitä, mihin meitä koskevat päätökset ja päättelyketjut oikein perustuvat?
Vastauksen voisi teoriassa varmasti antaa, jos tekoälyn päättelyketjut olisivat staattisia. Mutta tekoälyn tekee tulevaisuudessa älykkääksi nimenomaan sen kyky oppia ja muuttaa algoritmejaan. Oppivan tekoälyn suhteen puhutaan “mustan laatikon ongelmasta”. Se tarkoittaa sitä, että oppivan tekoälyn päättelyketjut voivat muodostua niin kompleksisiksi ja jatkuvasti muuttuviksi, että ne jäävät ihmiselle käsittämättömiksi. Vaikka oppisit ja sisäistäisit yhden tekoälyn käyttämän päättelyketjun, voi seuraava olla jo täysin erilainen.
Tämän lisäksi puhutaan myös datalähtöisestä diskriminaatiosta, jossa ihmisiä arvotetaan epäoikeudenmukaisesti esimerkiksi tiettyjä väestö- ja ikäryhmiä koskettavien historiallisten tilastojen valossa.
Seuraava tasa-arvotaistelu koneen edessä?
Jos klassisen liberalismin ja naisasialiikkeen keskeisimpiä voittoja oli paaluttaa tasa-arvo lain edessä yhdeksi oikeusvaltion kulmakiveksi, onko seuraavaksi aika taistella tasa-arvosta koneen edessä?
Yksi ratkaisu olisi, että tekoäly tulisi jatkossa velvoittaa perustelemaan ja avaamaan päättelynsä ihmiselle aina kun se tekee heitä koskettavia päätöksiä tai avustaa niiden tekemisessä.
Radikaali avoimuus ei ole koskaan tarkoittanut helppoja ratkaisuja ja vastauksia.
Läpinäkyvyyden nimissä syliimme on kaadettu valtava datamäärä. Sen taakka voi tulla raskaaksi ja synnyttää kysymyksiä siitä, kuka perusteluja ja dataa jäsentelee ja hallinnoi. Mutta radikaali avoimuus ei ole koskaan tarkoittanut helppoja ratkaisuja ja vastauksia.
Sitä paitsi: Kuka sanoi, että merkittävin viestintä tarkoittaisi aina vain viestintää ihmiseltä toiselle?