Tekoälyn julkista ohjausta on kehitettävä

Nykyiset julkiset ohjauskeinot eivät ehkäise tekoälyn käytön nostattamia sosiaalisia riskejä ja uhkia riittävästi. Julkishallinnon tulisi kehittää kyvykkyyttä ennakoida ja tunnistaa tekoälyn riskejä kokonaisvaltaisesti sekä vastata syntyviin ongelmiin ketterällä tavalla. Vastuullisesti toimiva julkinen hallintotapa luotsaa tekoälyn kehittäjiä ja käyttäjiä siten, että tekoäly tuottaa yhteistä hyvää niin yksilöiden, yhteisöjen kuin koko yhteiskunnan kannalta. Tätä tukemaan on kehitetty OSKI-malli (osallistava, soveltuva, kokonaisvaltainen ja institutionalisoitu tekoälyn ohjaus).

  • Tekoälyn ohjauksen tulee perustua osallistavalle hallintotavalle. Tekoälykehityksen ohjaus edellyttää yhteistyötä ja yhteiskehittämistä eri sidosryhmien, kuten tutkijoiden, yritysten, hallinnon virkahenkilöiden, kansalaisyhteiskunnan ja kolmannen sektorin kesken. Tekoälyn sääntelyä ja julkista palvelukehitystä koskevan päätöksenteon laatu heikkenee ja kansalliset tavoitteet jäävät yksipuolisiksi ilman laajaa kansalaiskeskustelua ja moniäänistä sidosryhmien osallisuutta. Osallistava hallintotapa vahvistaa tekoälykehityksen eettistä ja demokraattista perustaa ja näin ollen päätöksenteon hyväksyttävyyttä.
  • Julkishallinnon tulee tukea vastuullisuusperiaatteiden soveltamista julkisissa palveluissa ja yksityisissä yrityksissä. Vastuullisen tekoälyn mukaisia periaatteita ja toimintatapoja ei nykyisellään huomioida riittävästi tekoälyä hyödyntävien ja kehittävien organisaatioiden käytännöissä. Tämä uhkaa murentaa pohjaa luottamukselta, joka on edellytys tekoälyratkaisujen laajamittaiselle käytölle. Julkishallinto voi tukea eri sidosryhmien kyvykkyyttä toimia eettisesti ja vastuullisesti panostamalla alan koulutukseen ja kannustamalla toimijoita omaksumaan tekoälyn vastuullisen kehityksen ohjeita ja toimintamalleja.
  • Tekoälyä koskevaa ohjausta tulee kehittää kokonaisvaltaisesti. Tekoälyn kehitys on nopeaa, vaikeasti ennakoitavissa ja tapahtuu usealla yhteiskunnan osa-alueella samanaikaisesti ja siksi tarkoitustenmukaisten ohjauskeinojen kehittäminen on vaikeaa. Toimivien ohjauskeinojen kehittämiseksi tarvitaan tekoälyn systeemisen luonteen huomioimista sekä pitkän aikavälin vaikutuksien ennakointia. Tämä edellyttää kokonaisvaltaista näkökulmaa, joka huomioi esimerkiksi tekoälyn moninaiset sovellusalueet, eettiset ja lainsäädännölliset kysymykset, erilaiset ohjauskeinot sekä keskeisten toimijoiden näkökulmat, arvot ja intressit. Erilaisten ohjauskeinojen ja politiikkatoimenpiteiden tulee muodostaa johdonmukainen ja koordinoitu kokonaisuus, joka huomioi niin paikalliset tarpeet kuin pidemmän aikavälin kansalliset ja kansainväliset kestävyys- ja tekoälystrategiat. Tutkijoiden ja päätöksentekijöiden olisi yhdessä laadittava tekoälyn hallintamalli, joka auttaa organisoimaan ja koordinoimaan toimintaa kokonaisvaltaisesti ja pitkäjänteisesti.
  • Tekoälyn ohjauksen tulee olla selkeästi koordinoitua. Tekoälyn odotettavissa olevia hyötyjä voidaan kasvattaa ja riskejä minimoida koordinoimalla eri politiikkatoimia nykyistä selvemmin. Tekoälyn soveltamiseen, ohjaukseen ja sääntelyn on muodostettava johdonmukainen linja, johon on voitava luottaa investointeja suunnitellessa ja T&K-panoksia käytettäessä.
  • Perustetaan tekoälypolitiikan valtakunnallinen neuvottelukunta. Valtakunnallisella tasolla tekoälyn ohjaus, kehittäminen ja hyödyntäminen ovat keskeisiä tietopoliittisia tavoitteita. OSKI-mallin sekä tietopoliittisten tavoitteiden toteuttamiseksi tarvitaan valtioneuvoston asettama elin, esimerkiksi Digitoimiston yhteydessä toimiva neuvottelukunta. Neuvottelukunnan tehtäviin kuuluisi eettisesti kestävän ja vastuullisen tekoälypolitiikan ja ohjauskeinojen jatkuva kehittäminen, toimenpidesuositusten antaminen sekä niiden koordinoiminen ja seuranta. Lisäksi sen tulisi tukea monialaista yhteistyötä, eri sidosryhmien osallisuutta ja julkista tekoälypoliittista keskustelua, tutkimustiedon koordinoitua keräämistä sekä tekoälykehityksen vaikutustenarviointia ja ennakointia. Lisäksi neuvottelukunnan tulee selvittää perusteellisesti tarvetta perustaa tekoälyn ohjauksesta vastaavia pysyviä elimiä. Tällainen voisi olla virasto, joka toimii lupa- ja valvontaviranomaisena, ja huolehtii korkean riskin tekoälyjärjestelmien lainmukaisuudesta, turvallisuudesta ja eettisyydestä. Vastuullaan sillä olisi järjestelmien valvonta, sertifiointi ja riskienhallinta.

    Osallisuus. Kompleksisten ja nopeasti muuttuvien systeemien ohjaus edellyttää joustavia, paikallisiin asiayhteyksiin soveltuvia ja keskeisten toimijoiden kanssa neuvoteltuja ratkaisuja (Wallach & Marchant 2018; Winfield & Jirotka 2018; Sun & Medaglia 2019; Ulnicane ym. 2021). Parhaiden ratkaisujen hakemista edistetään luottamuksen, yhteisymmärryksen ja konsensuksen rakentamisella sidosryhmien kesken sekä dialogisesti pohtimalla teknologian mahdollisia eturistiriitoja, eri arvojen toteutumista ja teknologian vaikutuksia (Koskimies ym. 2022). Tiedon epäsymmetriaa ja epävarmuutta poliittisten päätösten valmistelussa voidaan vähentää huomioimalla eri sidosryhmien tarpeita ja etuja sekä niiden erityistietämystä paikallisista sosiaalisista ja teknisistä ilmiöistä. Tavanomaista laajemmalla sidosryhmänäkemyksellä voidaan tasapainottaa yksityisten yritysten vaikutusvaltaa tekoälypolitiikan, tekoälystrategioiden ja eettisten linjausten kehystämisessä. Kirjallisuuden mukaan osallisuus ja sen edellyttämä järjestäytyminen voisi olla yksittäisen organisaation tai yksikön vastuulla, joka koordinoi toimintaa, kouluttaa sidosryhmiä, kerää tarpeellisen tiedon ja tuo eri sidosryhmät keskinäiseen vuoropuheluun.

    Soveltuvuus. Tekoälyn etiikan vaikuttavuuden yhtenä ongelmana on, etteivät eettiset periaatteet riittävästi ohjaa poliittista päätöksentekoa tai käytännön toimintaa. Tämä puolestaan murentaa pohjaa luottamukselta, joka on edellytys tekoälyratkaisujen laajamittaiselle käytölle (AI HLEG 2019). Tarvitaan työkaluja ja ohjeita helpottamaan eettisen harkinnan ja periaatteiden soveltamista erilaisissa asiayhteyksissä. Käytännössä työkalut voivat olla toimintaohjeita, ratkaisukortteja, työkaluja ja ohjelmistoja, tai muita menetelmiä ja kannustimia, jotka helpottavat toimintaohjeiden tai periaatteiden soveltamista. Kirjallisuus tarjoaa laajan kirjon ohjeita esimerkiksi kansalaisosallisuuden tukemiseen, arviointityökalujen suunnittelemiseen ja taloudellisten kannustimien luomiseen (Floridi ym. 2018; Wallach & Marchant 2018; Donahoe & Metzger 2019; Sun & Medaglia 2019; de Almeida ym. 2021; Delacroix & Wagner 2021; Stix 2021; Tsamados ym. 2021).

    Kokonaisvaltaisuus. Laaja-alaista yhteiskunnallista muutosta tulisi ohjata kokonaisvaltaisesti hallintamallin avulla. Tekoälyä koskevia erilaisia ohjausmenettelyitä ja strategioita suuntaavan hallintamallin tulisi auttaa viranomaisia ja organisaatioita huomioimaan tekoälyilmiön systeeminen ja moniulotteinen luonne paikallisessa päätöksenteossa ja johtamisessa (Wirtz ym. 2020; Gasser & Almeida 2018; de Almeida ym. 2021; Yeung ym. 2019). Hallintamalli tukee kokonaisvaltaisen ja integroidun ohjauskeinovalikoiman kehittämistä, jossa tekoälyn ohjauksen eri ulottuvuudet lainsäädännöstä eettisiin periaatteisiin, teknisiin ratkaisuihin ja pitkän aikavälin vaikutuksiin nähdään systeemisenä kokonaisuutena. Koska tekoälyä voidaan soveltaa hyvin erilaisissa asiayhteyksissä ja teknologiakokonaisuuksissa, on tärkeää, että malli tekee paikallisen monimuotoisuuden ja sen edellyttämän ohjauksen erityiskysymykset näkyväksi. Tekoäly on siis ymmärrettävä kontekstisidonnaisena ilmiönä, joka edellyttää ohjauskeinoilta ketteryyttä. Esimerkiksi missiolähtöinen innovaatiopolitiikka tarjoaa yhden lähestymistavan toimintatapojen uusimiselle kohti systeemisempää ja ketterämpää ohjausta (Lähteenmäki-Smith 2020).

    Institutionalisointi. Tekoälyilmiön kokonaisvaltaisen julkisen ohjauksen koordinoimiseksi, päällekkäisyyksien välttämiseksi ja ad hoc politiikkatoimenpiteiden välttämiseksi tekoälyn ohjaus tulisi kokonaisuutena liittää olemassa olevan hallinnon yksittäisen osaston tai osastojen vastuulle, tai tehtävää varten tulisi perustaa neuvottelukunta tai erillinen virasto (Floridi ym. 2018; Bannister & Connolly 2020; Dignam 2020; de Almeida ym. 2021). Tällaisen viraston tehtävänä olisi päätöksenteon koordinointi sekä soveltuvien ja toteuttamiskelpoisten ohjauskeinojen jatkuva kehittäminen. Virasto voisi kirjallisuuden mukaan toimia eräänlaisena lupa- ja valvontaviranomaisena, joka valvoisi ja varmistaisi lainsäädännön noudattamista, tekoälyjärjestelmien turvallisuutta ja normatiivisten periaatteiden toteutumista. Sen vastuualueelle voisi kuulua tekoälyjärjestelmien asianmukaisuuden valvonta, verifiointi, sertifiointi, auditointi, riskien hallinta, sekä lainsäädännön kehittäminen. Lisäksi virasto voisi toteuttaa vaikutustenarviointia, jota tarvitaan lainsäädännön kehittämiseksi sekä tekoälyn etiikkaa koskevan julkisen keskustelun ylläpitämiseksi. Viraston tulisi keskittyä Suomalaisen yhteiskunnan tarpeisiin, mutta suuntautua vahvasti kansainvälisille foorumeille, erityisesti EU-tason keskusteluun.

    Lähteet

    Hankkeen julkaisuja

    Koskimies, E., Stenvall, J., Kinder, T., Leikas, J., & Nieminen, M. (2022). Artificial intelligence and public innovations. Public Innovation and Digital Transformation. Routledge. https://urn.fi/URN:NBN:fi:tuni-202208186494

    Leikas, J. (2022). Tekoälystä vastuullista. Teoksessa Tekoälyratkaisut tänään ja tulevaisuudessa. Eduskunnan tulevaisuusvaliokunnan julkaisu 1/2022. Eduskunta. https://www.parliament.fi/FI/naineduskuntatoimii/julkaisut/Documents/tuvj_1+2022.pdf

    Leikas, Karvonen, Sigfrids & Hallamaa (in press). Tekoälyn eettinen hyödyntäminen yhteiskunnassa.

    Salo-Pöntinen, H. & Saariluoma, P. (2022). Reflections on the human role in AI policy formulations: How do national AI strategies view people? Discover Artificial Intelligence, 2, Article 3. Springer Nature. https://doi.org/10.1007/s44163-022-00019-3

    Sigfrids, A., Leikas, J., Salo-Pöntinen, H., & Koskimies, E. (2023a). Human-centricity in AI governance: A systemic approach. Frontiers in artificial intelligence6, 976887. https://doi.org/10.3389/frai.2023.976887

    Sigfrids, A., Nieminen, M., Leikas, J., & Pikkuaho, P. (2022). How should public administrations foster the ethical development and use of artificial intelligence? A review of proposals for developing governance of AI. Frontiers in Human Dynamics, 20. https://doi.org/10.3389/fhumd.2022.858108

    Sigfrids, A., Nieminen, M., Leikas, J., Karvonen, A., & Pikkuaho, P. (2023b). Julkishallinto tukemassa eettisen tekoäly-yhteiskunnan rakentamista. Katsaus tekoälyn ohjauskeinoihin ja politiikkatoimenpiteisiin. VTT Technolgy 421. https://doi.org/10.32040/2242-122X.2023.T421

    Wessberg, N., & Leikas, J. (2021). Tekoälyn tulevaisuuksien eettiset kysymykset sosio-teknisissä skenaarioissa. Futura 3/21, 28-32.

    Kirjallisuutta

    AI HLEG (2019). Ethics Guidelines for Trustworthy AI. High-Level Expert Group on Artificial Intelligence, European Commission. Saatavilla: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

    Bannister, F., & Connolly, R. (2020). Administration by algorithm: a risk management framework. Informat. Polity, 25, 471–490. https://doi.org/10.3233/IP-200249

    de Almeida, P.G. R., dos Santos, C.D., & Farias, J. S. (2021). Artificial intelligence regulation: a framework for governance. Ethics Inf. Technol., 23, 505–525. https://doi.org/10.1007/s10676-021-09593-z

    Delacroix, S., & Wagner, B. (2021). Constructing a mutually supportive interface between ethics and regulation. Comput. Law Secur. Rev., 40. https://doi.org/10.1016/j.clsr.2020.105520

    Dignam, A. (2020). Artificial intelligence, tech corporate governance and the public interest regulatory response. Camb. J. Reg. Econ. Soc., 13, 37–54. https://doi.org/10.1093/cjres/rsaa002

    Donahoe, E., & Metzger, M. M. (2019). Artificial intelligence and human rights. J. Democracy, 30, 115–126. https://doi.org/10.1353/jod.2019.0029

    Floridi, L. (2023). The Ethics of Artificial Intelligence Principles, Challenges, and Opportunities. Oxford University Press.

    Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ym. (2018). AI4People—an ethical framework for a good AI society: opportunities, risks, principles, and recommendations. Minds Mach., 28, 689–707. https://doi.org/10.1007/s11023-018-9482-5

    Gasser, U., & Almeida, V. A. (2017). A layered model for AI governance. IEEE Int. Comput., 21, 58–62. https://doi.org/10.1109/MIC.2017.4180835

    Kuhlmann, S., Stegmaier, P., & Konrad, K. (2019). The tentative governance of emerging science and technology: a conceptual introduction. Res. Policy, 48, 1091–1097. https://doi.org/10.1016/j.respol.2019.01.006

    Lähteenmäki-Smith, K., & Virtanen, P. (2020). ”Mission-oriented public policy and the new evaluation culture,” teoksessa Society as an Interaction Space: A Systemic Approach, toim. Lehtimäki, H., Uusikylä, P., & Smedlund, A. Singapore: Springer. https://urn.fi/URN:NBN:fi-fe202003309615

    Lähteenmäki-Smith, K., Samuli, M., Vartiainen, P., Uusikylä, P., Jalonen, H., Kotiranta, S., ym. (2021). Valtion ohjaus 2020-luvulla. Säädös- ja resurssiohjauksesta järjestelmänavigointiin. Valtioneuvoston Selvitys- ja Tutkimustoiminnan Julkaisusarja. 2021, 17. http://urn.fi/URN:ISBN:978-952-383-162-9

    Stahl, B. (2021). Artificial intelligence for a better future. An ecosystem perspective on the ethics of AI and emerging digital technologies. Springer Briefs in Research and Innovation Governance. https://doi.org/10.1007/978-3-030-69978-9

    Stix, C. (2021). Actionable principles for artificial intelligence policy: three pathways. Sci. Eng. Ethics, 27, 1–17. https://doi.org/10.1007/s11948-020-00277-3

    Sun, T.Q., & Medaglia, R. (2019). Mapping the challenges of artificial intelligence in the public sector: evidence from public healthcare. Gov. Inf. Q., 36, 368–383. https://doi.org/10.1016/j.giq.2018.09.008

    Taddeo, M., & Floridi, L. (2018). How AI can be a force for good. Science, 361, 751–752. https://doi.org/10.1126/science.aat5991

    Taeihagh, A. (2021). Governance of artificial intelligence. Policy Soc., 40, 137–157. https://doi.org/10.1080/14494035.2021.1928377

    Taeihagh, A., Ramesh, M., & Howlett, M. (2021). Assessing the regulatory challenges of emerging disruptive technologies. Regul. Gov., 15, 1009–1010. https://doi.org/10.1111/rego.12392

    Tsamados, A., Aggarwal, N., Cowls, J., Morley, J., Roberts, H., Taddeo, M., ym. (2021). The ethics of algorithms: key problems and solutions. AI & Society. https://doi.org/10.1007/s00146-021-01154-8

    Ulnicane, I., Eke, D. O., Knight, W., Ogoh, G., & Stahl, B. C. (2021). Good governance as a response to discontents? Déjà vu, or lessons for AI from other emerging technologies. Interdiscip. Sci. Rev., 46, 71–93. https://doi.org/10.1080/03080188.2020.1840220

    Wallach, W., & Marchant, G. E. (2018). An Agile Ethical/Legal Model for the International and National Governance of AI and Robotics. Association for the Advancement of Artificial Intelligence.

    Winfield, A. F., & Jirotka, M. (2018). Ethical governance is essential to building trust in robotics and artificial intelligence systems. Philos. Trans. Royal Soc., 376, 20180085. https://doi.org/10.1098/rsta.2018.0085

    Wirtz, B. W., Weyerer, J. C., & Sturm, B. J. (2020). The dark sides of artificial intelligence: An integrated AI governance framework for public administration. Int. J. Public Adm., 43, 818–829. https://doi.org/10.1080/01900692.2020.1720234

    Yeung, K., Howes, A., & Pogrebna, G. (2019). “AI governance by human rights centred design, deliberation and oversight: An end to ethics sashing,” in The Oxford Handbook of AI Ethics, ed. Dubber, M. and Pasquale, F. New York: Oxford University Press. https://doi.org/10.1093/oxfordhb/9780190067397.013.5

Aihetta tutkivat hankkeet: ETAIROS

Lisätietoja

ETAIROS

Eettinen tekoälyn hyödyntäminen yhteiskunnan ohjauksessa

Teknologian, talouden ja työn murrokset