OECD:n tekoälyn peruspilarit

OECD julkaisi toukokuun lopulla tekoälykehitystyölle viisi periaatetta, joita sitä kehittäessä tulisi pitää lähtökohtina. Pidemmässä taustadokumentissa on myös avattu sanastoa ja annettu lisäselityksiä periaatteiden takana.

AI system: An AI system is a machine-based system that can, for a given set of human-defined  objectives, make predictions, recommendations, or decisions influencing real or virtual  environments. AI systems are designed to operate with varying levels of autonomy.([2], p. 7)

 

 

Alkuperäinen ja vapaamuotoinen käännös löytyvät ao. taulukosta.

AI should benefit people and the planet by driving inclusive growth, sustainable development and well-being. Tekoälyn tulisi tuoda ihmisille ja planeetoille hyötyä, kannustamalla mukaanottavaan kasvuun, kestävään kehitykseen ja hyvinvointiin.
AI systems should be designed in a way that respects the rule of law, human rights, democratic values and diversity, and they should include appropriate safeguards – for example, enabling human intervention where necessary – to ensure a fair and just society. Tekoälyjärestelmät tulisi suunnitella tavalla, joka kunnioittaa lain sääntöjä, ihmisoikeuksia, demokraattisia arvoja ja monimuotoisuutta, ja niiden pitäisi sisällyttää sopivat turvat – esimerkiksi ihmisen väliintulon tarvittaessa – mahdollistamaan rehellisen ja oikeudenmukaisen yhteiskunnan.
There should be transparency and responsible disclosure around AI systems to ensure that people understand AI-based outcomes and can challenge them. Tekoälyjärjestelmien tulisi olla  läpinäkyvia ja vastuullinen ilmoittaminen niistä, jotta ihmiset ymmärtävät tekoälypohjaiset lopputulokset ja voivat haastaa ne.
AI systems must function in a robust, secure and safe way throughout their life cycles and potential risks should be continually assessed and managed. Tekoälyjärjestelmien täytyy toimia vakaalla, tietoturvallisella ja turvallisella tavalla koko elämänkaarensa ajan ja mahdollisia riskejä tulisi koko ajan arvioida ja hallita.
Organisations and individuals developing, deploying or operating AI systems should be held accountable for their proper functioning in line with the above principles. Organisaatioiden ja yksilöiden jotka kehittävät, julkaisevat tai käyttävät tekoälyjärjestelmiä tulisi pitää vastuullisena siitä, että ne toimivat kunnollisesti ylläolevien periaatteiden mukaan.

Kiintoisaa nähdä, alkavatko nämä periaatteet nousta käyttöön. Kuitenkin jo 42 maata on omaksunut periaatteet ja asiantuntijaryhmä , joka määritelmät on luonut, on kerätty osallistujia eri puolilta.

Saksan tekoälystrategian 12 toimenpidealuetta

Saksan tekoälystrategia

Saksan tekoälystrategiassa liikutaan toimenpiteiden ja tavoitteiden välimaastossa. Vuoden 2018 lopussa tehdyssä strategiassa mainitaan 12 tavoitetta, jolla tekoälyn käyttöä valtiossa ja muuallakin yhteiskunnassa pyritään kasvattamaan.

Euroopassa

Euroopassa julkaistiin huhtikuussa 2019 ‘Ethics guidelines for trustworthy AI’ , jossa luotiin kehys, jonka puitteissa tekoälyä eri puolilla yhteiskuntaa tulisi kehittää, kuvattuna am. kuvassa [4].

Suomessa

Suomessa kansallinen tekoälyohjelma tunnetaan AuroraAI-nimellä jonka toimeenpanosuunnitelma pohjautuu ‘Tekoälyaika Suomessa’-raporttiin ja työryhmätyöhön jossa eri osioita on käsitelty laajemmin.

Antti Rinteen tuoreessa hallitusohjelmassa mainitaan tekoäly kahdeksan kertaa.

“Varmistetaan, ettei tekoälyjärjestelmissä hyödynnetä välittömästi tai välillisesti syrjiviä toimintamalleja.”

Joka tuntuisi olevan hyvin linjassa aiemmin esitettyjen tekoälyn periaatteiden kanssa.

 

Lähteet

[1] OECD. (2019b). OECD Principles on Artificial Intelligence. Osoitteessa http://www.oecd.org/going-digital/ai/principles/

[2] OECD. (2019a). OECD Legal Instruments. Osoitteessa https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
[3] European Comission. (2019, huhtikuuta 8). Ethics guidelines for trustworthy AI [Text]. Noudettu 30. toukokuuta 2019, osoitteesta Digital Single Market – European Commission website: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
[4] The Federal Government. (ei pvm.). Home – KI Strategie. Noudettu 30. toukokuuta 2019, osoitteesta https://www.ki-strategie-deutschland.de/home.html?file=files/downloads/Nationale_KI-Strategie_engl.pdf

Tekoäly Mikkeli-iltapäiväseminaari

Mikkelin tekoälyseminaarissa 11.10.2018  pääajatuksena oli näyttää alueelta olevia yrityksiä ja muita esimerkkejä, joilla havainnollistettiin kuinka tekoäly tai keinoäly on jo täällä. Näin Mikko Lampi avasi tapahtuman ja totta olikin, että mukanaolevissa yrityksissä oli jo valmiita käyttökohteita tekoälylle kuten esimerkiksi suositteluissa tai yksinkertaisessa chatbotissa, joka vastailee käyttäjän kysymyksiin verkkosivustolla. Valtionvarainministeriön esittelemässä esimerkissä taas kansalainen voisi saada vinkkejä arjen pulmiin, kuten vaikka kesätyöpaikan löytämiselle tai terveyssuosituksia tekoälyltä ennen ihmislääkärille menoa.

Tapahtumassa oli myös hyvää avauspuheenvuoro jossa käytiin läpi koneoppimisen eri lajeja ja kuinka tekniikka taustalla toimii. Perinteistä koneoppimisen kytkinanalogian avulla esitettiin, kuinka tekoälyssä pyrkimys on saada arvio, ennuste siitä kuinka todennäköisesti esimerkiksi kuvassa on tomaatti Vai kurpitsa. Tausta-algoritmin säätimillä tai piirteillä malli oppii kuinka oikeassa se on suhteessa annettuun validointiaineistoon. Kuitenkin hyvä on muistaa myös realiteetit, sillä kuten yhdessä esityksessä mainittiinkin, lähtödatan valinta muokkaaminen, saaminen oikeaan muotoon on työläin vaihe ja sillä on myös suurimmat seuraukset. Esimerkiksi voitaisiin arvailla, onko yksi viimeisimmästä nousseista tapauksista, eli Amazonin tekoälyratkaisu työnhakijoiden esivalintaan, opetettu puutteellisella datalla, vai onko kyse algoritmin säätimistä, joka johti siihen, että vanhoja päätöksiä toistettiin ja algoritmistä tulikin syrjivä. Tutkimuspuolella myös huoli mahdollisten kuinka koneoppimisessakin voi olla vikoja tai niitä voidaan aiheuttaakin, mikä johtaa vääriin lopputuloksiin.

Nuotti vai väliviiva sanomalehdessä?