Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52016IE5369

Euroopan talous- ja sosiaalikomitean lausunto aiheesta ”Tekoäly ja sen vaikutukset (digitaalisia) sisämarkkinoita, tuotantoa, kulutusta, työllisyyttä ja yhteiskuntaa ajatellen” (oma-aloitteinen lausunto)

EUVL C 288, 31.8.2017, p. 1–9 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

31.8.2017   

FI

Euroopan unionin virallinen lehti

C 288/1


Euroopan talous- ja sosiaalikomitean lausunto aiheesta ”Tekoäly ja sen vaikutukset (digitaalisia) sisämarkkinoita, tuotantoa, kulutusta, työllisyyttä ja yhteiskuntaa ajatellen”

(oma-aloitteinen lausunto)

(2017/C 288/01)

Esittelijä:

Catelijne MULLER

Komitean täysistunnon päätös

22.9.2016

Oikeusperusta

työjärjestyksen 29 artiklan 2 kohta

 

oma-aloitteinen lausunto

 

 

Vastaava erityisjaosto

”yhtenäismarkkinat, tuotanto ja kulutus”

Hyväksyminen erityisjaostossa

4.5.2017

Hyväksyminen täysistunnossa

31.5.2017

Täysistunnon nro

526

Äänestystulos

(puolesta / vastaan / pidättyi äänestämästä)

159/3/14

1.   Päätelmät ja suositukset

1.1

Tekoälyn alalla on parhaillaan käynnissä koko joukko tärkeitä kehitysprosesseja, ja sen sovellukset yhteiskunnassa yleistyvät vinhaa vauhtia. Tekoälymarkkinat ovat kooltaan noin 664 miljoonaa Yhdysvaltojen dollaria, ja niiden odotetaan kasvavan 38,8 miljardiin Yhdysvaltojen dollariin vuoteen 2025 mennessä. Koska tekoälyllä voi olla sekä myönteiset että kielteiset vaikutuksensa yhteiskuntaan, on ETSK päättänyt ryhtyä seuraamaan kehitystä tekoälyn saralla kiinteästi ei pelkästään teknisestä vaan erityisesti myös eettisestä, turvallisuuspainotteisesta ja yhteiskunnallisesta näkökulmasta.

1.2

Eurooppalaisen kansalaisyhteiskunnan edustajana ETSK pyrkii tulevina aikoina muokkaamaan, kanavoimaan ja virittämään tekoälyn tiimoilta käytävää yhteiskunnallista keskustelua ja kutsumaan siihen mukaan kaikki asiaankuuluvat sidosryhmät: poliittiset päättäjät, teollisuuden, työmarkkinaosapuolet, kuluttajat, kansalaisjärjestöt, oppi- ja hoitolaitokset ja tiedemaailman eri alojen (mm. tekoäly, turvallisuus, etiikka, taloustieteet, työtieteet, oikeustieteet, käyttäytymistieteet, psykologia, filosofia) asiantuntijat ja tutkijat.

1.3

Superälystä käytävä keskustelu, joka sinänsä on tärkeää, on tällä hetkellä dominoiva ja jättää varjoonsa keskustelun tekoälyn nykyisten sovellusten vaikutuksista. Prosessin tehtävänä ja tavoitteena tuleekin olemaan muun muassa tekoälyä koskevan tietämyksen lisääminen ja parantaminen ja siten tietoon perustuvan ja tasapainoisen keskustelun edistäminen tuomiopäivän skenaarioita tai äärimmäistä relativismia välttäen. ETSK tulee tässä yhteydessä työskentelemään tekoälyn kehittämisen edistämiseksi, jotta se palvelisi ihmiskuntaa. Siitä huolimatta prosessiin kuuluu tärkeänä tehtävänä ja tavoitteena myös yksilöidä, määrittää ja tarkkailla murrosilmiöitä tekoälyn kehityksessä ja sen liepeillä, jotta niitä pystytään käsittelemään asianmukaisesti ja oikea-aikaisesti. Tämä on omiaan edistämään yhteiskunnallista sitoutumista ja luottamusta kestävän kehityksen viemiseen eteenpäin tekoälyn alalla ja tekoälyn hyödyntämiseen sekä kasvattamaan näiden seikkojen yhteiskunnassa saamaa kannatusta.

1.4

Tekoälyn vaikutus ulottuu yli rajojen, joten myös toimintalinjaukset täytyy tehdä valtioiden välillä. ETSK suosittaa, että EU ottaa globaalin edelläkävijän roolin määritettäessä tekoälylle maailmanlaajuista yksiselitteistä toimintapoliittista kehystä unionin arvojen ja perustavien oikeuksien mukaisesti. ETSK pystyy antamaan tähän työhön panoksensa ja on siihen halukas.

1.5

ETSK yksilöi tällä hetkellä 11 alaa, joilla tekoäly tuottaa yhteiskunnallisia haasteita: etiikka; turvallisuus; henkilökohtainen yksityisyys; selkeys ja perusteltavuus; työ; koulutus ja osaaminen; (epä)tasa-arvo ja osallisuus; lainsäädäntä ja sääntely; julkinen hallinto ja demokratia; sodankäynti sekä superäly. ETSK suosittaa näin ollen seuraavaa:

1.6

ETSK kehottaa tarkastelemaan tekoälyä ”ihminen komentaa” -näkökulmasta ja asettamaan ehdoksi, että tekoälyä kehitetään vastuullisesti, turvallisesti ja hyödyllisesti siten, että koneet pysyvät koneina ja että ihmiset pitävät joka hetki koneet hallinnassaan.

1.7

ETSK kehottaa laatimaan eettiset säännöt tekoälyn kehittämistä, soveltamista ja käyttämistä varten, jotta tekoälyjärjestelmät ovat koko toimintaprosessinsa ajan sopusoinnussa ihmisarvon, koskemattomuuden, vapauden, yksityisyyden, kulttuurisen ja sukupuoleen liittyvän moninaisuuden sekä perustavien ihmisoikeuksien kaltaisten periaatteiden kanssa.

1.8

ETSK kehottaa laatimaan tekoälyjärjestelmien tarkastamista, todentamista ja valvomista varten standardointijärjestelmän, joka perustuu laajaan normien joukkoon sellaisilta aloilta kuin turvallisuus, selkeys, ymmärrettävyys, perusteltavuus sekä eettiset arvot.

1.9

ETSK esittää, että luodaan eurooppalainen tekoäly-infrastruktuuri, joka koostuu yksityisyyttä kunnioittavista avoimen lähdekoodin oppimisympäristöistä, todelliseen tilanteeseen perustuvista testausympäristöistä ja korkealaatuisista tietokokonaisuuksista tekoälyjärjestelmien kehittämistä ja koulimista varten. ETSK toteaa, että EU voi hankkia (kilpailu)etua maailmanmarkkinoilla kehittämällä ja tekemällä tunnetuksi ”eurooppalaisia vastuullisiksi todettuja tekoälyjärjestelmiä”, joille on myönnetty eurooppalainen tekoälysertifikaatti ja -merkintä.

1.10

EU:n, jäsenvaltioiden viranomaisten ja työmarkkinaosapuolten täytyy yhdessä kartoittaa, mihin työmarkkinasektoreihin tekoäly tulee vaikuttamaan, missä määrin ja miten nopeasti, ja pyrkiä löytämään ratkaisuja, joilla puututaan asian seurauksiin työllisyyden, työn sisällön, sosiaalisen suojelun järjestelmien ja tasa-arvokysymysten kannalta. Sen ohella on syytä investoida työmarkkinasektoreihin, joihin tekoäly vaikuttaa vain vähän tai ei ollenkaan.

1.11

ETSK kehottaa näitä sidosryhmiä yhteisiin toimiin täydentävien tekoälyjärjestelmien alalla ja niiden luomiseksi osallistavasti yhdessä työpaikoilla, esimerkkinä ihmisen ja koneen vuorovaikutukseen perustuvat työtiimit, joissa tekoäly täydentää ja edistää ihmissuoritusta. Sidosryhmien täytyy lisäksi investoida virallisen oppimisen ja arkioppimisen sekä yleissivistävän ja ammatillisen koulutuksen mahdollistamiseen jokaiselle, jotta hankitaan tekoälyn käyttämiseen työssä tarvittava osaaminen mutta kehitetään myös taitoja, joita tekoäly ei tule eikä pysty korvaamaan.

1.12

Pitää ryhtyä heti konkreettisesti arvioimaan niitä tulevaisuuden ennakoinnin tutkimusyksikön (Scientific Foresight Unit, STOA) määrittämiä kuutta painopistealaa koskevaa EU:n lainsäädäntöä ja muita määräyksiä, joita pitää ehkä tarkistaa tai ajantasaistaa. ETSK voi täyttää tässä arviointiprosessissa oman tehtävänsä, ja se myös haluaa menetellä niin. ETSK vastustaa robottien tai tekoälyn määrittämistä jonkin muotoisiksi oikeushenkilöiksi. Jos niin tapahtuu, tehdään vahingonkorvausvastuun ennalta ehkäisevä ja korjaava vaikutus tyhjäksi, synnytetään moraalikatoa niin tekoälyn kehittämisen kuin sen hyödyntämisen yhteydessä ja avataan mahdollisuuksia väärinkäytöksiin.

1.13

Sekä julkisella että yksityisellä tasolla on aktiivisesti edistettävä ja tehtävä tunnetuksi sellaisten tekoälysovellusten kehittämistä, jotka palvelevat yhteiskuntaa, suosivat osallisuutta ja parantavat ihmisten elämää. Euroopan komission tulee ohjelmiensa yhteydessä rahoittaa tutkimusta, joka käsittelee tekoälyn sekä EU:n rahoittamien tekoälyinnovaatioiden yhteiskunnallisia vaikutuksia.

1.14

ETSK tukee Human Rights Watch -organisaation ja muiden vastaavien tahojen vetoomusta itsenäisesti toimivien asejärjestelmien kieltämiseksi. ETSK on tyytyväinen ilmoitukseen, että asiasta on tarkoitus neuvotella YK:ssa, mutta katsoo, että näissä neuvotteluissa on käsiteltävä myös tekoälysovellusten hyödyntämistä kybersodankäyntiin.

2.   Tekoäly

2.1

Tekoälylle ei ole kiistattomasti hyväksyttyä, selvärajaista määritelmää. Tekoäly on yläkäsite suurelle joukolle aihealueita ja niiden alatasoja. Esimerkkejä ovat kognitiivinen tietojenkäsittely (algoritmien kyky päätellä ja ymmärtää korkeammalla (inhimillisemmällä) tasolla), koneoppiminen (algoritmit, jotka oppivat itsenäisesti tehtäviä), laajennettu äly (augmented intelligence, ihmisen ja koneen yhteistoiminta) ja tekoälyrobotiikka (robotteihin muokattu tekoäly). Tekoälytutkimuksen ja -kehitystyön keskeinen tavoite on kuitenkin älykkään toiminnan automatisoiminen, esimerkkeinä päätteleminen, tiedon kerääminen, suunnitteleminen, oppiminen, viestiminen, käsitteleminen, tunnistaminen ja jopa luominen, uneksiminen ja käsitysten muodostaminen.

2.2

Tekoäly voidaan karkeasti ottaen jakaa kapeaan (narrow) tekoälyyn ja yleiseen (general) tekoälyyn. Kapea tekoäly pystyy selviytymään tietyistä erityisistä tehtävistä. Yleinen tekoäly pystyy selviytymään jokaisesta älykkyyttä kysyvästä tehtävästä, jonka ihminen kykenee suorittamaan.

2.3

Kapean tekoälyn alalla on viime aikoina otettu suuria edistysaskeleita, mikä johtuu eritoten tietokoneiden laskentatehon kasvusta, suurten tietomäärien saatavuudesta ja koneoppimisen (machine learning) kehityksestä. Koneoppiminen tarkoittaa, että algoritmit kykenevät itsenäisesti oppimaan tehtäviä ilman että ne on ohjelmoitu tekemään niin. Tämä menetelmä perustuu ”koulutusdatan” käsittelyyn, ja sen pohjalta algoritmi oppii tunnistamaan malleja ja laatimaan sääntöjä. Syväoppimisessa (deep learning), joka on koneoppimisen eräs muoto, käytetään hyväksi rakenteita (neural networks), jotka perustuvat väljästi ihmisaivojen rakenteeseen, ja opetetaan niitä harjoituksen ja palautteen keinoin. Tämän kehityksen tuloksena tekoälyjärjestelmät voivat (algoritmien avulla) nykyään olla itseoppivia, itsenäisiä ja mukautumiskykyisiä.

2.4

Tekoälyä käsittelevässä kehittämis- ja tutkimustyössä on päähuomion kohteena jo jonkin aikaa ollut päättely, tiedonkeruu, suunnittelu, viestiminen ja havaintokyky (visuaalinen, auditiivinen, sensorinen). Tämä on johtanut monilukuisiin tekoälysovelluksiin: virtuaaliassistentit, itseohjautuvat autot, automaattinen uutisten aggregointi, puheentunnistus, käännösohjelmat, tekstipohjaiset puheentuotanto-ohjelmat (text-to-speak), automatisoitu finanssikauppa, sähköisesti tallennetun tiedon tunnistaminen ja esittäminen oikeudellisessa prosessissa (e-discovery) jne.

2.5

ETSK kiinnittää huomiota siihen, että sovellusten ja tekoälyyn tehtävien investointien määrä on viime aikoina kasvanut eksponentiaalisesti. Tekoälymarkkinat ovat kooltaan tätä nykyä noin 664 miljoonaa Yhdysvaltojen dollaria, ja niiden odotetaan kasvavan 38,8 miljardiin Yhdysvaltojen dollariin vuoteen 2025 mennessä.

3.   Tekoälyyn liittyvät mahdollisuudet ja uhat

3.1

On lähes tulkoon kiistatonta, että tekoäly voi tuottaa merkittäviä yhteiskunnallisia hyötyjä: ajatelkaamme esimerkiksi sovelluksia kestävyysmallin mukaisessa maataloudessa, turvallisemmassa liikenteessä, turvallisemmassa finanssijärjestelmässä, ympäristöä säästävämmissä tuotantoprosesseissa, kehittyneemmässä lääketieteessä, turvallisemmassa työssä, henkilökohtaisemmassa opetuksessa, kehittyneemmässä oikeudenkäytössä ja turvallisemmassa yhteiskunnassa. Se voi mahdollisesti jopa myötävaikuttaa sairauksien ja köyhyyden kitkemiseen. Tekoäly saattaa myös antaa merkittävän, teollisuuden kasvua edistävän ja EU:n kilpailukykyä parantavan panoksen.

3.2

Kuten jokainen murroksellinen teknologia, tekoäly tuo kuitenkin muassaan riskejä ja pulmallisia toimintapoliittisia haasteita sellaisilla aloilla kuin turvallisuus ja valvottavuus, sosioekonomiset seikat, etiikka ja yksityisyys, luotettavuus jne.

3.3

Käsillä ovat ratkaisevat hetket tekoälyn nykyisen ja tulevan kehittämisen ja hyödyntämisen (reuna)ehtojen määrittämiselle. Mainitut tekoälyn edut pystytään saavuttamaan pysyvästi ainoastaan siinä tapauksessa, että tekoälyyn liittyviin haasteisiin tartutaan asianmukaisesti. Tähän tarkoitukseen tarvitaan poliittisia valintoja.

a)

Etiikka

3.4

Tekoälyn kehitys herättää monia kysymyksiä etiikan alalla. Mitkä ovat autonomisen (itsenäisesti oppivan) tekoälyjärjestelmän vaikutukset henkilökohtaiseen koskemattomuuteemme, riippumattomuuteemme, arvokkuuteemme, itsenäisyyteemme, yhdenvertaisuuteemme, turvallisuuteemme ja valinnanvapauteemme? Miten huolehdimme siitä, että perustavia normejamme, arvojamme ja ihmisoikeuksiamme kunnioitetaan ja että ne taataan?

3.5

Tähän on lisättävä huomio, että tekoälyä kehitetään nykyisin homogeenisessa ympäristössä, joka koostuu valtaosaltaan nuorista valkoihoisista miehistä, jolloin (oli tämä sitten tietoista tai ei) tekoälyyn muokkautuu kulttuurista ja sukupuoleen liittyvää eriarvoisuutta muun muassa siksi, että tekoälyjärjestelmät oppivat koulutusdatan pohjalta. Tämän datan täytyy olla paikkansapitävää, minkä lisäksi sen tulee olla laadukasta, monipuolista, kyllin seikkaperäistä ja puolueetonta. Yleensä on taipumusta uskoa, että data on lähtökohtaisesti objektiivista, mutta se on väärinkäsitys. Dataa on helppo peukaloida, se voi olla puolueellista, heijastaa kulttuurisia, sukupuoleen liittyviä ja muita ennakkoluuloja ja mieltymyksiä sekä sisältää virheitä.

3.6

Nyt kehitteillä oleviin tekoälyjärjestelmiin ei liity minkäänlaisia eettisiä arvoja. Meidän ihmisten täytyy sisällyttää nuo arvot tekoälyjärjestelmiin ja niiden soveltamisympäristöön. Tekoälyjärjestelmien kehittämisen, soveltamisen ja käyttämisen täytyy tapahtua perustavien normiemme, arvojemme, vapauksiemme ja ihmisoikeuksiemme asettamissa rajoissa. ETSK kehottaakin laatimaan ja vahvistamaan yleiset eettiset säännöt tekoälyn kehittämistä, soveltamista ja käyttämistä varten.

b)

Turvallisuus

3.7

Tekoälyn käyttäminen fyysisessä ympäristössä synnyttää kiistatta kysymyksiä turvallisuudesta. Voidaan tehdä ero sisäisen ja ulkoisen turvallisuuden välille.

Sisäinen turvallisuus: Onko tekoälyjärjestelmä kyllin vahva toimiakseen (jatkuvasti) asianmukaisesti? Onko algoritmi asianmukaisesti ohjelmoitu? Onko algoritmi kaatumaton ja hakkeroinnin kestävä? Onko se toimiva? Onko se luotettava?

Ulkoinen turvallisuus: onko tekoälyjärjestelmä turvallinen käytössä yhteiskunnassa? Toimiiko se turvallisesti paitsi normaaleissa myös tuntemattomissa, kriittisissä tai odottamattomissa tilanteissa? Mitä vaikutuksia itsenäisellä oppimiskyvyllä on turvallisuuteen silloinkin kun järjestelmä käyttöönottonsa jälkeen jatkaa oppimistaan?

3.8

ETSK katsoo, että tekoälyjärjestelmien käyttöönottoon voidaan suostua ainoastaan siinä tapauksessa, että ne täyttävät sisäisen ja ulkoisen turvallisuuden erityiset vaatimukset. Näiden vaatimusten määrittäminen on poliittisten päättäjien, tekoäly- ja turvallisuusasiantuntijoiden, yritysten ja kansalaisyhteiskunnan yhteinen tehtävä.

c)

Selkeys, ymmärrettävyys, valvottavuus, perusteltavuus

3.9

Tekoälyn hyväksyntä, kestävä kehitys ja soveltaminen käyvät käsi kädessä se kanssa, missä määrin tekoälyjärjestelmien toimintaa, tekemisiä ja päätöksiä on mahdollista ymmärtää, valvoa ja perustella – varsinkin myös jälkikäteen.

3.10

Tekoälyjärjestelmien (älykkäisiin algoritmeihin perustuvilla) tekemisillä ja päätöksillä puututaan enenevästi ihmisten elämään. Mainittakoon esimerkkeinä tekoälyn hyödyntäminen tiedusteluun perustuvassa poliisitoiminnassa, kiinnelainahakemusten arvioinnissa tai vakuutuskelpoisuuden määrittelyssä. Tässä yhteydessä ovat ratkaisevan tärkeitä seikkoja tekoälyjärjestelmän päätöksentekoprosessin ymmärrettävyys, valvottavuus ja perusteltavuus.

3.11

Tätä nykyä monet tekoälyjärjestelmät ovat jo sellaisia, että käyttäjien on hyvin vaikea saada niistä kunnon käsitystä. Tämä koskee kuitenkin enenevästi myös järjestelmien rakentajia. Erityisesti neuroverkot (neural networks) ovat monesti mustia laatikoita, joiden sisällä tapahtuu (päätös)prosesseja, jotka eivät ole enää käsitettävissä ja joille ei ole olemassa selitysmekanismeja.

3.12

ETSK perää selkeitä, ymmärrettävissä ja valvottavissa olevia tekoälyjärjestelmiä, joiden toiminta on perusteltavissa myös jälkikäteen. Sen lisäksi täytyy määrittää, mitkä päätöksentekoprosessit voidaan uskoa tekoälyjärjestelmille ja minkä suhteen niin ei voi menetellä ja milloin ihmisen puuttuminen asiaan olisi katsottava toivottavaksi tai välttämättömäksi.

d)

Henkilökohtainen yksityisyys

3.13

Kysymys yksityisyyden suojasta tekoälyjärjestelmien yhteydessä aiheuttaa huolta. Moniin kulutustavaroihin on jo nyt muokattu tekoälyä: on kodinkoneita, leikkikaluja, autoja, terveydentilan seurantalaitteita ja älypuhelimia. Nämä kaikki tuotteet viestivät (useissa tapauksissa henkilökohtaisia) tietoja tuottajiensa pilvipohjaisten alustojen kanssa. Varsinkin nyt, kun datakauppa käy kuumana, eli kun tuotettu data ei jää tuottajalleen vaan myydään kolmansille tahoille, on aihetta huoleen, toteutuuko yksityisyyden suoja yhä riittävällä tavalla.

3.14

Sitä paitsi tekoäly kykenee analysoimalla suuria määriä (monesti) henkilökohtaista tietoaineistoa vaikuttamaan ihmisten suorittamiin valintoihin monilla aloilla (kaupankäyntiin liittyvistä päätöksistä aina vaaleihin ja kansanäänestyksiin). Erityisen alttiina oleva ryhmä ovat lapset. ETSK:ta huolestuttavat tekoälysovellukset, joilla pyritään nimenomaisesti vaikuttamaan lasten käyttäytymiseen ja toiveisiin.

3.15

On estettävä, että tekoälyn soveltaminen henkilökohtaisiin tietoihin rajoittaa ihmisten tosiasiallista tai oletettua vapautta. EU:n yleisessä tietosuoja-asetuksessa säädetään laajamittaisesta digitaalisesti toimitettuja henkilötietoja koskevasta yksityisyyden suojasta. On pidettävä tarkasti silmällä, onko tekoälyn kehityksen valossa käytännössä olemassa riittävät takeet siitä, että ihmiset pystyvät toteuttamaan paitsi oikeuttaan tietoiseen myöntymiseen ja valinnanvapauteen tietoja antaessaan myös oikeuttaan päästä käsiksi antamiinsa tietoihin, muuttaa ja valvoa niitä.

e)

Normit, standardit ja infrastruktuuri

3.16

On syytä kehittää laajan normivalikoiman pohjalta uusia standardointijärjestelmiä tekoälyjärjestelmien arvioimiseksi ja varmistamiseksi, jotta pystytään punnitsemaan ja valvomaan tekoälyjärjestelmien turvallisuutta, selkeyttä, ymmärrettävyyttä, perusteltavuutta ja eettistä vastuullisuutta.

3.17

ETSK esittää, että EU luo oman tekoäly-infrastruktuurin, joka kostuu henkilökohtaista yksityisyyttä kunnioittavista avoimen lähdekoodin oppimisympäristöistä ja korkealaatuisista tietokokonaisuuksista tekoälyjärjestelmien kehittämistä ja koulimista varten. EU voi sitä paitsi hankkia tällä keinoin (kilpailu)etua maailmanmarkkinoilla tekemällä ”eurooppalaisia vastuullisiksi todettuja tekoälyjärjestelmiä” tunnetuksi. ETSK suosittaa, että tässä yhteydessä tutkitaan eurooppalaisen tekoälyjärjestelmien sertifiointi- ja merkintäjärjestelmän mahdollisuuksia.

f)

Vaikutukset työhön, työllisyyteen, työoloihin ja -ehtoihin sekä sosiaalisen suojelun järjestelmiin

3.18

On ilmeistä, että tekoäly tulee vaikuttamaan työllisyyden volyymiin ja useiden työtehtävien lajiin ja luonteeseen ja sitä kautta myös sosiaalisen suojelun järjestelmiin, vaikka on esitetty erilaisia käsityksiä siitä, miten nopeasti ja missä määrin tätä tulee tapahtumaan.

3.19

MIT-yliopiston tutkijat Brynjolfsson ja McAfee kutsuvat tämänhetkistä teknologista kehitystä (johon tekoäly lukeutuu) toiseksi koneiden aikakaudeksi. On kuitenkin kaksi tärkeää eroa: (i) ”vanhat” koneet korvasivat etupäässä lihasvoimaa, kun taas uudet koneet korvaavat henkistä panosta ja kognitiivisia valmiuksia, jolloin asiasta eivät joudu kärsimään pelkästään matalan koulutustason omaavat (blue collar workers) vaan myös ylemmän keskiasteen ja korkea-asteen koulutustason omaavat (white collar workers), ja (ii) tekoäly on geneeristä teknologiaa (general purpose technology), jonka vaikutukset kohdistuvat lähestulkoon kaikkiin sektoreihin samanaikaisesti.

3.20

Tekoäly voi antaa suurta etua, kun sitä sovelletaan vaaralliseen, raskaaseen, rasittavaan, likaiseen, epämukavaan, yksitoikkoiseen tai pitkästyttävään työhön. Tekoälyjärjestelmät pystyvät kuitenkin enenevästi suoriutumaan myös rutiineiksi järjestettävissä olevasta työstä, tietojen käsittelystä ja analysoinnista sekä työstä, johon kuuluu keskeisesti suunnittelua tai ennusteiden laatimista, eli tehtävistä, joita korkeakoulutetut useissa tapauksissa hoitavat.

3.21

Useimmiten ansiotyö koostuu kuitenkin moninaisista toiminnoista. Mahdollisuus, että tekoäly tai robotit ottavat hoitaakseen kaikki jonkun vastuulla olevat toiminnot, vaikuttaa pieneltä. Miltei jokainen tulee kuitenkin kokemaan automatisoinnin vaikutuksia työnsä osa-alueilla. Tällä tavoin säästyvä aika voidaan käyttää muihin tehtäviin, mikäli julkinen valta ja työmarkkinaosapuolet panostavat asiaan. Tässä yhteydessä on syytä pitää silmällä, miten nämä kehityssuuntaukset saattavat vaikuttaa asiantuntija- ja johtotehtäviä hoitaviin, ja edistää heidän osallisuuttaan asiaan, jotta he pysyvät kehityksen herroina eikä heistä tule sen uhreja.

3.22

Toisaalta tulee syntymään myös uusia työpaikkoja. Kukaan ei silti pysty ennustamaan, mitä ne ovat, miten paljon niitä syntyy ja miten nopeasti se tapahtuu. Googlen ja Facebookin kaltaiset yritykset kykenevät tuottamaan suunnattomasti lisäarvoa suhteellisen pienellä työntekijämäärällä. Sitä paitsi uudet työpaikat eivät aina ole hyviä työpaikkoja. Huolena on, että tekoälyn kehityksen jatkuessa jäljelle jää kohta enää kehnosti palkattuja minityötehtäviä, joita kasvava joustoaikaisten joukko hoitaa.

3.23

Tekoäly ei vaikuta ainoastaan tarjolla olevan työn määrään vaan myös olemassa olevan työn ominaislaatuun. Tekoälyjärjestelmät tarjoavat enenevästi mahdollisuuksia työntekijöiden seuraamiseen ja tarkkailemiseen, jolloin autonomia ja henkilökohtainen yksityisyys vaarantuvat. Jo nykyisellään algoritmit useissa tapauksissa määrittävät ja jakavat työtehtävät ihmisen puuttumatta asiaan, mikä vaikuttaa työn luonteeseen ja työolosuhteisiin. Tekoälyjärjestelmiä käytettäessä riskinä on myös toimintojen sisällöllinen köyhtyminen ja tärkeiden taitojen osaamisen heikentyminen.

3.24

On kuitenkin tosiseikka, että teknologia ei ole asia, joka noin vain ”tapahtuu” meille. Julkisella vallalla ja työmarkkinaosapuolilla on mahdollisuus päättää, millä tavoin tekoälyä kehitetään ja sovelletaan työprosessiin, ja niiden täytyy myös ottaa vaari tästä tilaisuudesta. Tässä yhteydessä on tärkeää kohdistaa huomio paitsi siihen, mihin tekoäly pystyy, mutta erityisesti myös siihen, mihin nimenomaan ihmiset kykenevät (luovuus, empatia, yhteistyö) ja mitä haluamme heidän jatkossakin tekevän, ja etsiä mahdollisuuksia parantaa ihmisen ja koneen työskentelyä yhdessä (täydentävyys).

3.25

Laajennettu äly (augmented intelligence) (täydentävyys), eli kun ihminen ja kone työskentelevät yhdessä, toisiaan vahvistaen, on mielenkiintoisin tekoälysovellus, koska siinä on olennaista ihminen ja kone eikä ihminen koneen asemasta. Yhdessä luominen on kuitenkin hyvin tärkeä seikka: työntekijät täytyy osallistaa mainitun kaltaisten täydentävien tekoälyjärjestelmien kehittämiseen, jotta huolehditaan siitä, että tekoälyjärjestelmien käyttöominaisuudet ovat hyvät ja että työntekijälle jää riittävästi autonomiaa ja valvontavaltaa (”ihminen komentaa”), tyydytystä ja mielihyvää työssään.

g)

Koulutus ja taidot

3.26

Digitaalisten taitojen ylläpitäminen tai niiden antaminen on välttämätöntä, jotta ihmisille tarjotaan mahdollisuus mukautua tekoälyn alalla tapahtuvaan nopeaan kehitykseen. Euroopan komissio panostaa digitaalisten taitojen kehittämiseen voimakkaasti digitaalitaitojen ja työpaikkojen edistämiseksi kokoamansa koalition (Digital Skills and Jobs Coalition) kautta. Kaikilla ei kuitenkaan tule olemaan kykyä tai kiinnostusta koodaukseen ja ohjelmoijan ammattiin. Niinpä onkin kohdennettava toimintapolitiikkaa ja osoitettava määrärahoja koulutukseen ja taitojen kehittämiseen myös aloilla, joita tekoälyjärjestelmät eivät tule uhkaamaan (esimerkkeinä tehtävät, joissa ihmisten vuorovaikutus on etusijalla, joissa ihminen ja kone työskentelevät yhdessä tai joita haluamme ihmisten hoitavan jatkossakin).

3.27

Panostettaessa ihmisen ja tekoälyn täydentävyyteen (laajennettu äly, augmented intelligence) tarvitsee jokainen nuoresta pitäen koulutusta tekoälyjärjestelmien käsittelyn ja niiden toiminnan alalla, jotta huolehditaan siitä, että ihmiset pystyvät säilyttämään autonomian ja valvontavallan omaan työhönsä nähden (”ihminen komentaa”). Tässä yhteydessä on myös varsinkin etiikkaa ja yksityisyyttä käsittelevällä koulutuksella suuri merkitys, koska tekoäly vaikuttaa niihin hyvin paljon.

h)

Käytettävyys, yhteiskunnallinen eri- ja tasa-arvoisuus, osallistaminen, jakaminen

3.28

Valtaosa tekoälyn ja siihen liittyvien osatekijöiden (kehittämisalustat, tietoaineistot, osaaminen, asiantuntemus) kehittämistoiminnasta on viiden suuren teknologiayrityksen (Amazon, Apple, Facebook, Google, Microsoft) käsissä. Vaikka mainitut yritykset kannattavatkin avointa tekoälyn kehittämistä ja tarjoavat tiettyjä tekoälyn kehittämisalustoistaan vapaasti käyttöön, ei tämä ole lopullinen tae tekoälyjärjestelmien täydestä käytettävyydestä. EU:lla, kansainvälisillä päättäjillä ja kansalaisyhteiskunnalla onkin tärkeä tehtävä huolehtia paitsi siitä, että tekoälyjärjestelmät ovat kaikkien saatavilla, mutta myös siitä, että niitä kehitetään avoimessa ympäristössä.

3.29

Pääomapiirejä hyödyttävät teknologiset muutokset, joiden yhteydessä innovointi tuo etua ennen muita innovaatioiden omistajille, heikentävät työn asemaa pääomaan nähden. Teknologiset muutokset voivat myös johtaa ihmisten (tulotason) eriarvoisuuteen (sekä paikallisesti että alueellisesti ja maailman mitassa). On mahdollista, että tekoäly voimistaa näitä kehityssuuntauksia entisestään.

3.30

Näitä suuntauksia pitää seurata kiinteästi, ja niiden suhteen tulee toimia asianmukaisesti. Eräät ajavat jo tekoälyveroa, tekoälyosinkoa tai tekoälyjärjestelmien omistuksen jakamista työntekijöiden ja työnantajien kesken. Lisäksi yhä enemmän keskustellaan poikkeuksettoman perustulon välttämättömyydestä.

3.31

ETSK on jo aiemmassa lausunnossaan (1) maininnut digitaalisen osingon ja sen yhdenmukaisen jakamisen mahdollisuutena saavuttaa myönteisiä kasvuvaikutuksia. ETSK pitää kaikkien näiden ratkaisujen tutkimista tärkeänä ja katsoo, että tässä yhteydessä tulee tasapainottaa keskenään ihmistä hyödyttävä tekoälyn kehittäminen ja mainituista ratkaisuista mahdollisesti seuraavat haittavaikutukset. On myös estettävä moraalikato eli se, että vastuu tekoälyjärjestelmistä siirretään entiteetille, jota ei tosiasiallisesti ole mahdollista saattaa vastuuseen.

i)

Oikeudelliset ja sääntelyä koskevat näkökohdat

3.32

Tekoäly vaikuttaa voimassa olevaan lainsäädäntöön ja muuhun sääntelyyn merkittävällä tavalla. Euroopan parlamenttiin kuuluva tulevaisuuden ennakoinnin tutkimusyksikkö (STOA) julkaisi vuoden 2016 kesäkuussa katsauksen EU:n säädöksiin, joihin kehitys robotiikan, kyberfyysisten järjestelmien ja tekoälyn alalla tulee vaikuttamaan. STOA nimeää kuusi painopistealaa – liikenne, kaksikäyttöjärjestelmät, kansalaisvapaudet, turvallisuus, terveys, energia –, joiden osalta on mahdollisesti tarkistettava tai mukautettava jopa 39:ää EU:n asetusta, direktiiviä, julistusta ja tiedonantoa sekä Euroopan unionin perusoikeuskirjaa. Tähän arviointiin on ryhdyttävä ripeästi ja viivyttelemättä, ja ETSK pystyy osallistumaan ja tahtoo osallistua prosessiin.

3.33

Paljon keskustellaan siitä, kenen voidaan katsoa olevan vastuussa, kun tekoälyjärjestelmä aiheuttaa vahinkoa. Tämä koskee varsinkin itseoppivaa tekoälyjärjestelmää, joka käyttöönottonsa jälkeen oppii oppimistaan. Euroopan parlamentti on laatinut suosituksia robotiikkaa koskevista yksityisoikeudellisista säädöksistä, mm. ehdotuksen robottien sähköisen oikeushenkilöllisyyden (e-personality) käyttöönottamisen mahdollisuuden tutkimisesta. Oikeushenkilöllisyys tarkoittaa sitä, että robotit voidaan katsoa yksityisoikeudellisesti vastuullisiksi aiheuttamistaan vahingoista. ETSK ei kannata jonkin muotoisen oikeushenkilöllisyyden antamista roboteille tai tekoälylle (tekoälyjärjestelmille), koska siihen sisältyy kohtuuttoman suuri moraalikadon mahdollisuus. Vastuuvelvollisuudesta seuraa ennaltaehkäisevä käyttäytymistä korjaava vaikutus, joka saattaa hävitä, kun tekijään ei enää kohdistu riski vastuunalaisuudesta, kun se siirretään robotille (tai tekoälyjärjestelmälle). Sitä paitsi on vaarana, että kuvatun kaltaista oikeudellista muotoa sovelletaan epäasianmukaisesti tai käytetään väärin. Vertaus yhtiöiden rajoitettuun vastuuvelvollisuuteen näin ollen ontuu, koska niiden tapauksessa lopullisen vastuun kantaa aina luonnollinen henkilö. Tähän liittyen täytyy tutkia, tarjoaako voimassa oleva jäsenvaltioiden ja EU:n lainsäädäntö ja muut säädökset sekä oikeuskäytäntö (tuote- ja ankaran) vastuun ja oman syyn alalla riittävän vastauksen tähän kysymykseen ja mitä oikeudellisia ratkaisuja on käytettävissä, jos vastausta ei ole.

3.34

Lisäksi on ratkaisevan tärkeää asianmukaisen tekoälyä koskevan lainsäädännöllisen ja sääntelyllisen toimintamallin kannalta hankkia selkeä käsitys siitä, mihin tekoäly pystyy ja mihin se ei kykene ja mistä se lyhyellä, keskipitkällä ja pitkällä aikavälillä mahdollisesti suoriutuisi.

3.35

Tekoäly ei jää valtiollisten rajojen sisälle. Sen vuoksi on tärkeää tutkia maailmanlaajuisen sääntelyn tarvetta, koska alueellinen sääntely ei tule riittämään ja koska sillä on jopa epätoivottavia vaikutuksia. Kun otetaan huomioon, että EU:lla on käytännössä hyväksi havaittu tuote- ja turvallisuusstandardien järjestelmä, että muilla mantereilla esiintyy taipumusta protektionismiin ja että Euroopasta löytyy korkeatasoista osaamista ja eurooppalainen perusoikeuksien, sosiaalisten arvojen ja työmarkkinaneuvottelujen järjestelmä, ETSK suosittaa, että EU ottaa globaalin edelläkävijän roolin määritettäessä tekoälylle maailmanlaajuista yksiselitteistä toimintapoliittista kehystä ja vie tätä prosessia eteenpäin maailman mitassa.

j)

Julkinen hallinto ja demokratia

3.36

Tekoälysovellukset voivat edistää ihmisten osallisuutta julkisen vallan politiikkaan ja hallinnollisten päätösten avoimuutta. ETSK kehottaa EU:ta ja jäsenvaltioiden viranomaisia hyödyntämään tekoälyä tähän tarkoitukseen.

3.37

ETSK:ta huolestuttaa tekoälyjärjestelmien kohdennettu käyttäminen (älykkäiden algoritmien muodossa) uutisten aggregointiin esimerkiksi sosiaalisessa mediassa, mikä näkyy johtaneen informaatiovirran kaventumiseen ja yhteiskunnan enenevään pilkkoutumiseen (ajatelkaamme vaikka Twitterin ja Facebookin informaatiokuplia, filter bubbles, ja valeuutisia Yhdysvaltojen vaalien aikoihin).

3.38

ETSK:ta huolestuttavat myös viitteet, että tekoälyjärjestelmiä olisi käytetty tarkoituksena vaikuttaa ihmisten (äänestys)käyttäytymiseen. Ihmisten mieltymyksiä ja käyttäytymistä lienee ennustettu ja niihin lienee vaikutettu kohdennetusti älykkäiden algoritmien avulla. Tämä on uhka rehelliselle ja avoimelle demokratialle. Tänä kärjistymisen ja kansainvälisten instituutioiden purkamisen aikakautena voi tuon kaltainen propagandateknologia osuvuudellaan ja voimallaan nopeasti vauhdittaa yhteiskunnan rikkoutumista. Tämä on yksi syistä siihen, miksi tarvitaan välttämättä standardeja (älykkäiden) algoritmien selkeyttä ja valvottavuutta ajatellen.

k)

Sodankäynti

3.39

Eräitä tavanomaisia aseita koskevan YK:n yleissopimuksen tarkistuskonferenssissa on päätetty, että asiantuntijat käyvät keskusteluja itsenäisesti toimivista aseista vuonna 2017. ETSK on siitä hyvillään ja tukee Human Rights Watch -organisaation ja muiden vastaavien tahojen vetoomusta itsenäisesti toimivien asejärjestelmien kieltämiseksi. Komitea katsoo, että mainitunlaisen kiellon toteuttamista on tutkittava ja harkittava vakavasti. Tämä ei kuitenkaan vielä riitä, jos mahdollisuuksiin käyttää tekoälyä sota- ja konfliktitilanteissa halutaan puuttua asianmukaisesti. Näiden YK-neuvottelujen puitteissa on syytä käsitellä myös tekoälysovellusten hyödyntämistä kybersodankäyntiin.

3.40

Sen lisäksi pitää estää tekoälyn joutuminen sellaisten ihmisten tai hallitustahojen käsiin, jotka aikovat käyttää sitä välineenä terrorismiin.

l)

Superäly

3.41

Lisäksi on aiheellista tarkastella superälyn kehittämiseen liittyviä mahdollisuuksia ja riskejä. Stephen Hawking on todennut, että yleisen tekoälyn kehittäminen merkitsee jo ihmiskunnan loppua. Hänen mukaansa tekoäly tulee siinä vaiheessa kehittymään eteenpäin vauhtia, jossa ihmiset eivät pysy mukana. Sen vuoksi eräät asiantuntijat puoltavat ”tappokytkintä” tai ”nollauspainiketta”, jolla mielettömäksi muuttunut tai superälykäs tekoälyjärjestelmä pystytään kytkemään pois tai palauttamaan alkutilaansa.

3.42

ETSK kehottaa soveltamaan ”ihminen komentaa” -näkökulmaa ja asettamaan reunaehdoksi, että tekoälyä kehitetään ja sovelletaan vastuullisesti ja turvallisesti tavalla, jossa koneet pysyvät koneina ja jossa ihmiset pystyvät joka hetki pitämään nämä koneet hallinnassaan. Superälystä käytävä keskustelu on tässä yhteydessä tärkeää, mutta tällä hetkellä se jättää varjoonsa keskustelun tekoälyn nykyisten sovellusten vaikutuksista.

4.   Tekoäly ihmiskunnan palveluksessa

4.1

Suuret kaupalliset toimijat ovat jo kehitelleet erilaisia hankkeita avoimen, turvallisen ja yhteiskunnallisesti vastuullisen tekoälyn kehittämiseksi (esimerkkinä OpenAI-tutkimusyritys). Poliittiset päättäjät eivät kuitenkaan voi jättää tätä yrityksille, sillä heillä on asiassa oma tehtävänsä. Tarvitaan kohdennettuja toimenpiteitä ja tukea tekoälyyn liittyviä yhteiskunnallisia haasteita sekä turvallisten ja vankkojen tekoälyjärjestelmien kehittämistä käsittelevään tutkimukseen.

4.2

Horisontti 2020 -puiteohjelman kaltaiset EU:n ohjelmat soveltuvat mitä parhaiten näiden haasteiden ratkaisemiseen. ETSK on todennut, että varsinkin Horisontti 2020 -puiteohjelman ”yhteiskunnalliset haasteet” -pilarin rahoitus laahaa ohjelman kahden muun pilarin (”huipputason tiede” ja ”teollisuuden johtoasema”) perässä ja että sitä ollaan supistamassa. ETSK edellyttää, että laaja-alaisia yhteiskunnallisia haasteita sekä tekoälyn yhteiskunnallisia sovelluksia käsittelevä tutkimus saa tärkeän sijan ”yhteiskunnalliset haasteet” -pilarissa.

4.3

Lisäksi on puitava mahdollisesti useille eri aloille ulottuvia tekoälyn vaikutuksia. Samanaikaisesti kun myönnetään varoja murrokselliseen tekoälyteknologiainnovointiin, on syytä rahoittaa myös kyseisten innovaatioiden yhteiskunnallisten vaikutusten käsittelemistä tarkastelevaa tutkimusta.

4.4

Tutkimus- ja kehitystyö tekoälyn saamiseksi ihmiskunnan palvelukseen vaatii tämän lisäksi monenlaista, korkealaatuista ja vapaasti saatavilla olevaa koulutus- ja testausdataa ja todellista tilannetta vastaavia kokeiluympäristöjä. Tekoälyinfrastruktuuri ja suuri osa soveltuvasta datasta on toistaiseksi ollut ainoastaan suppean yksityisten toimijoiden joukon hallinnassa ja käytettävissä, ja tekoälyn testaamiselle julkisessa tilassa on esteitä, mikä haittaa tekoälyn soveltamista muilla aloilla. On ratkaisevan tärkeää kehittää vapaasti saatavilla olevaa korkealuokkaista dataa ja eurooppalaista tekoälyinfrastruktuuria, jotta tulokseksi saadaan turvallinen, vakaa ja tarkoituksenmukainen tekoäly.

5.   Seuranta ja puuttuminen

5.1

Vielä ei ole mahdollista saada täyttä käsitystä tekoälyn yleisistä yhteiskunnallisista vaikutuksista. Ne tulevat kuitenkin eittämättä olemaan suuret. Kehitysaskeleet tekoälyn alalla seuraavat tätä nykyä toinen toistaan kiivaassa tahdissa, mikä edellyttää laaja-alaista kriittistä tarkastelua, jotta tärkeimpiä teknisiä ja yhteiskunnallisia muutostekijöitä tekoälyn kehityksessä ja sen liepeillä pystytään käsittelemään asianmukaisesti ja oikea-aikaisesti.

5.2

Teknisiä muutostekijöitä ovat esimerkiksi sellaiset poikkeukselliset tai merkittävät edistysaskeleet tekoälyn valmiuksissa, jotka saattavat enteillä yleisen tekoälyn toteutumista. Yhteiskunnallisia muutostekijöitä voivat olla esimerkiksi huomattavan suuret työpaikkojen menetykset vailla toiveita korvaavista työpaikoista, vaaralliset tilanteet, järjestelmähäiriöt, ennakoimattomat maailmantapahtumat jne.

5.3

Poliittisten päättäjien, teollisuuden, työmarkkinaosapuolten, kuluttajien, kansalaisjärjestöjen, oppi- ja hoitolaitosten ja eri alojen (mm. [sovellettu] tekoäly, etiikka, turvallisuus, taloustiede, työtieteet, oikeustieteet, käyttäytymistieteet, psykologia ja filosofia) tutkijoiden ja asiantuntijoiden on syytä seurata tekoälyyn liittyvää kehitystä kiinteästi ja kartoittaa näitä muutostekijöitä sekä kerätä niistä aina viimeisimmät tiedot, jotta pystytään ryhtymään oikeisiin toimenpiteisiin oikealla hetkellä, tarkoittipa tämä sitten toimintapolitiikkaa, lainsäädäntää ja sääntelyä, itsesääntelyä tai työmarkkinavuoropuhelua.

5.4

Eurooppalaisen kansalaisyhteiskunnan edustajana ETSK pyrkii tulevina aikoina muokkaamaan, kanavoimaan ja virittämään tekoälyn tiimoilta käytävää monien sidosryhmien välistä keskustelua.

Bryssel 31. toukokuuta 2017.

Euroopan talous- ja sosiaalikomitean puheenjohtaja

Georges DASSIS


(1)  EUVL C 13, 15.1.2016, s. 161


Top
  翻译: