Jos odotat eettistä sääntelyä kaikille tekoälyn sovelluksille, myöhästyt auttamattomasti sen käyttöönotossa, sillä tekoälyä hyödynnetään jo nyt kasvun ja kilpailukyvyn tukena. Vaikka sääntely on vielä alkuvaiheessa, jokainen organisaatio voi jo nyt suunnitella tekoälystään vastuullisen ja eettisen.
Tekoälyn eettisistä periaatteista ja ohjeistuksista on käyty paljon julkista keskustelua viime vuosina. EU:n High-Level Expert Group teki ansiokasta työtä laatiessaan EU:n tasoiset tekoälyn eettiset ohjeistukset. Samoin Suomen Tekoälyaika -ohjelman puitteissa toteutettu etiikkahaaste loi positiivista virettä organisaatioihin ja työnsi pohtimaan tekoälyn eettisyyttä.
Miten päästä tekoälypuheista tekoihin – vastuullisesti?
Valitettavasti suurin osa median tekoälyuutisoinnista keskittyy uhkakuvien maalailuun ja riskien korostamiseen, jolloin hyödyt ja mahdollisuudet jäävät pienemmälle huomiolle. Tekoälyn tehdessä läpimurtoaan toimialasta riippumatta moni organisaatio on jäänyt jumiin pohtiessaan eettisiä näkökulmia tämän uuden teknologian soveltamisessa.
Olemme uuden teknologisen vallankumouksen äärellä ja on todella tärkeää, että eettisistä periaatteista ja ohjeistuksista käydään julkista keskustelua.
Samalla on aika ymmärtää iso kuva. Uskon, ettei tämä(kään) teknologia ole sellainen, johon kyetään kehittämään kaikkia käyttötapauksia tai -sovellutuksia koskevat säännöt. Tehdasympäristössä tekoälyn soveltaminen ennakoivaan huoltoon kattaa aivan erilaisia riskejä kuin sen käyttäminen automaattiseen päätöksentekoon terveydenhuollossa tai vakuutuskorvauksissa.
On totta, että tiettyjen alojen ja sovellusten suhteen tarvitsemme tarkkaa ja tiukkaakin sääntelyä. Tällaisesta hyvä esimerkki on kasvojentunnistusteknologia. Kasvojentunnistus tarjoaa paljon mahdollisuuksia, mutta tuo mukanaan lukuisia vakavia riskejä, joita teknologian soveltajan on syytä ottaa tarkasti huomioon. Microsoft onkin esittänyt kasvojentunnistusteknologian käytön sääntelyä.
Monien muiden tekoälyä hyödyntävien alueiden osalta taas ei välttämättä ole syytä jäädä odottamaan kaiken kattavaa sääntelyä. Odottaessa riskinä on kelkasta putoaminen ja hyötyjen menettäminen.
Kolme työkalua vastuullisen tekoälyn suunnitteluun
Me Microsoftilla tunnustamme vastuumme pilvipalvelujen ja tekoälyteknologioiden kehittäjänä ja tarjoajana ja teemme jatkuvasti työtä eettisten periaatteiden käytännön realisoimiseksi. Tässä kolme työkalua, joiden avulla voit tarkastella organisaatiosi tekoälyn vastuullisuutta jo suunnitteluvaiheessa:
- Tuo läpinäkyvyys osaksi tekoälyn suunnittelua
Microsoftin tutkimusyksikkö on kehittänyt Human-AI Interaction Design Guidelines -kehikon, joka tarjoaa ohjeita tekoälyn läpinäkyvään suunnitteluun ja toteutukseen. Näillä ohjeilla ennakoit mahdolliset tekoälyn suunnittelun kompastuskivet ja luot sujuvan ja tarkoituksenmukaisen vuorovaikutuksen ihmisen ja tekoälyn välille.
- Dokumentoi datasi sisältö
Datasheets for Datasets on työkalu datasetin kuvailemiseen ja mahdollisten vinoumien (bias) tunnistamiseen ja esiintuomiseen. Kuvailutiedot keskittyvät mm. siihen, miten datasetti on muodostettu, mistä se koostuu, mitä mahdollisia vinoumia se sisältää, mihin käyttöön se on tai ei ole tarkoitettu ja miten sitä ylläpidetään.
- Salatun tiedon tietoturvallinen hyödyntäminen
Homomorfisesta salauksesta povataan monessa yhteydessä ratkaisua esimerkiksi tilanteisiin, joissa tekoälysovelluksen opettaminen tarvitsee luottamuksellista dataa vaarantamatta kuitenkaan yksityisyyttä. Homomorfisen salauksen avulla tieto pysyy luottamuksellisena ja suojattuna myös silloin kun sitä käytetään. Näin esimerkiksi koneoppimismalleja voitaisiin opettaa purkamatta itse opetusdatan salausta.