lauantai 25. huhtikuuta 2026

Tekoälystä ja lääkäreiden etiikasta

Tekoälyllä (artificial intelligence AI, augmented intelligence) tarkoitetaan järjestelmän kykyä tulkita ulkoisia tietoja oikein, oppia tällaisista tiedoista ja käyttää opittuja asioita tiettyjen tavoitteiden ja tehtävien saavuttamisessa joustavan sopeutumisen kautta. Tekoäly voi vaikuttaa lääkärin työhön kahdella eri tavalla: mitä se tekee jo tänään, ja mitä se mahdollisesti kykenee tekemään tulevaisuudessa eli huomenna. Ensin mainitussa on kysymys erilaisista kapean tekoälyn sovelluksista ja jälkimmäisessä mahdollisen yleisen tekoälyn tulemisesta. Nämä kaksi kehityslinjaa asettavat hyvin erityyppisiä eettisiä haasteita.


Kapea tekoäly pystyy jo nyt selviytymään älykästä toimijaa muistuttavasti tietystä kapeasta tehtävästä. Aikaisemmin tekoälyä pyrittiin kehittämään laatimalla monimutkaisia tietokoneohjelmia, jolloin koko tekoälyn suoritus oli ohjelman kirjoittajan hallinnassa. Sekä monet eettiset että juridiset kysymykset ovat suhteellisen yksinkertaisia ratkaista. Ohjelman kirjoittajalla on vastuu siitä, että ohjelma toimii oikein, ja käyttäjän vastuulla on se, että hän käyttää ohjelmaa oikein. Nykyisin toimivat tekoälysovellukset ovat lähes kaikki koneoppimisen tulosta. Tämän ovat tehneet mahdolliseksi nykyisin saatavilla olevat valtavat datamäärät, kyky melko nopeaan informaation liikkeeseen sekä tietokoneiden suuresti laajentuneet laskentakyvyt. Koneoppiminen on silloin välttämätöntä, jos halutaan hyödyntää käytettävissä oleva data. Tämä tuo tullessaan täysin uusia eettisiä näkökulmia samoin lääkärien työhön. Lääkärien mahdollisuus ja velvollisuus on hyödyntää uusi teknologia vastuullisesti ja täysimittaisesti potilaidensa hyväksi.


Koneoppimisessa annetaan aluksi data ja vastaus, ja tuloksena on malli päästä vastaukseen, toisin kuin traditionaalisessa ohjelmoinnissa, jossa annetaan data ja laskentamalli ja näiden lopputuloksena on vastaus. Tekoäly käyttää koneoppimisella kehitettyä ja optimoitua laskentakaavaa (algoritmi). Kyseessä on useimmiten laajasti käsittäen tunnistus tai myös ennustustehtävä: onko kuvassa esimerkiksi kallonsisäinen verenvuoto vai ei, mihin mahdolliseen riskiluokkaan henkilö kuuluu sairauden suhteen ja niin edelleen. Tekoälyä on jo käytetty esimerkiksi keskoslasten sepsisinfektion varhaisessa tunnistamisessa.


Koneoppiminen voi olla joko 1) ohjattua (supervised), jolloin koneelle opetusvaiheessa kerrotaan, onko se oikeassa, tai 2) ohjaamatonta (unsupervised), jolloin algoritmi laitetaan esimerkiksi jakamaan aineisto luokkiin. Viimeksi mainittua tapaa käytetään esimerkiksi hypoteesien luomiseen. Valtaosa nykyisin käytössä olevista tai kehitettävistä sovelluksista perustuu ohjattuun oppimiseen.


Koneoppiminen perustuu induktiiviseen päättelyyn – yksittäisistä havainnoista muodostetaan yleinen sääntö tai teoria -, jossa ei ole definitiivistä – lopullista, ehdotonta tai ratkaisevaa - vastausta, vaan päätelmä vahvistuu lisääntyvien havaintojen myötä. Yhdellä tautia sairastavalla on tietty oireisto, kuten seuraavallakin potilaalla ja sitä seuraavalla. Tämän oireiston havaitessaan kone alkaa ehdottaa kyseistä tautia. Käytännössä kapea tekoäly tekee kahta asiaa, se tunnistaa (usein luokkiin jakamalla) sekä ennustaa. Induktio on keskeinen kapean tekoälyn eettisiä haasteita aiheuttava piirre, sillä kapean tekoälyn rakentama algoritmi käyttää suorituksissaan vain niitä piirteitä, joilla sitä on opetettu. Kun lääkäri arvioi tekoälyn antamaa tulosta, hänen pitäisi kyetä vastaamaan kysymykseen, onko potilaani kuvattavissa niillä piirteillä (syötteillä), joilla koneoppimismalli on rakennettu, ja onko näitä syötteitä mahdollisesti käytetty oikein. Koneoppimismallien monimutkaisuuden vuoksi tämä voi olla hyvin vaikeaa.


Silloin kun tekoälyä käytetään ihmisen lisänä ja apuna esimerkiksi erilaisten sertifioitujen laitteiden ohjauksessa, ihmisaistien tukena tai luomaan virtuaalitodellisuutta kirurgin avuksi, tilanne on eettiseltä kannalta selkeä. Jos näillä teknologioilla voidaan parantaa potilaan hoitoa, niitä tulisi myös käyttää annettavassa hoidoissa.


Mikäli tekoälyn tulosta käytetään päätöksenteossa, on keskeistä, mihin saatua tunnistetta tai ennustetta käytetään. Tulos voidaan joko vain 1) ilmoittaa, 2) sen perusteella voidaan tehdä toimenpide-ehdotus tai 3) kone voi suorittaa tuloksen pohjalta automaattisesti jonkin toimenpiteen.  Eettiset ja vastuukysymykset liittyvät tekoälyn käyttöön tunnistuksessa, ennustamisessa ja päätöksenteossa.


Ilmoitustilanteessa tekoälyn antama ennuste toimii yhtenä lääkärin päätöksenteon apuvälineenä, ja lääkärin tulisi antaa sille ammattitaitonsa avulla tietyn painoarvon. Jos laite tekee yksiselitteistä aritmeettista laskutoimitusta monimutkaisempia laskutoimituksia tai loogista päättelyä, algoritmin antama hoitoehdotus on jo vaativampi tilanne. Voidaanko lääkäriä moittia, jos hän toimii algoritmin ehdotuksen vastaisesti, vai voidaanko häntä moittia, jos hän toimii sen mukaisesti, mikäli lopputulos on huono? Koska molemmat ajatuskulut ovat mahdollisia, tulisi lainsäädännön turvata näissä tilanteissa sekä lääkärin riittävä autonomia että oikeusturva. Tässä on huomioitava tekoälyn induktiivisuus, jonka takia lääkärin on aina suhtauduttava algoritmin antamaan tulokseen tietyllä varauksella. Käytännössä lopullinen vastuu päätöksestä jää kuitenkin lääkärille.

  1. Ilmoitustilanteessa tekoälyn antama ennuste toimii yhtenä lääkärin päätöksenteon apuvälineenä, ja lääkäri antaa sille ammattitaitonsa avulla tietyn painoarvon. Jos laite tekee yksiselitteistä aritmeettista laskutoimitusta monimutkaisempia laskutoimituksia tai loogista päättelyä, algoritmin antama hoitoehdotus on jo vaativampi tilanne. Voidaanko lääkäriä moittia, jos hän toimii algoritmin ehdotuksen vastaisesti, vai voidaanko häntä moittia, jos hän toimii sen mukaisesti, mikäli lopputulos on lopulta huono? Koska molemmat ajatuskulut ovat mahdollisia, tulisiko lainsäädännön turvata näissä tilanteissa sekä lääkärin riittävä autonomia että oikeusturva? Tässä on huomioitava tekoälyn induktiivisuus, jonka takia lääkärin on aina viisasta suhtautua algoritmin antamaan tulokseen tietyllä varauksella. Käytännössä kuitenkin vastuu lopullisesta päätöksestä jää lääkärille.

  2. Jos ohjelma laukaisee varoituksen esimerkiksi tietyn pistemäärän ylittyessä, algoritmi on silloin lääkinnällinen laite. Valmistajalla on luonnollisesti vastuu siitä, että laite suorittaa laskutoimituksen oikein. Mikäli tarvitaan tiedon syöttöä, tiedot syöttävä henkilö vastaa tiedon oikein syöttämisestä. Tulkinta ja tiedon käyttäminen oikeassa yhteydessä on käyttäjän vastuulla. Lääkärin tulisi myös jollain tavoin ymmärtää, millä perusteilla tekoäly päätyi ehdotukseensa. Kun kone on oppiessaan käyttänyt usein erittäin suurta määrää erityyppisiä tietoja ja monimutkaisia laskentamenetelmiä, on näiden perusteiden hahmottaminen usein kohtalaisen vaikeaa. Toisaalta tekoälyn hyödyntämättä jättäminen ei välttämättä ole eettistä. Haasteeseen ei ole välttämättä yksinkertaista ratkaisua. Lääkäreillä on eettinen velvollisuus olla aina mukana tekoälyn käyttöä koskevassa keskustelussa, koska kehityksen tässä vaiheessa ei ole olemassa valmiita toimintamalleja.

  3. Yleisessä eettisessä keskustelussa on tuotu ongelmana esiin vastuu siinä tilanteessa, jossa tekoälyn avulla tehdään asioita suoraan tekoälyn tuottamasta tuloksesta ilman ihmisen tekemää harkintaa. Tilanne vertautuu viime kädessä muuhunkin teknologian käyttöön. Tilanteessa, jossa algoritmi suorittaa automaattisesti toimenpiteen, lääkärin vastuu kohdistuu oikean algoritmin valintaan potilaalle sekä täysin luonnollisesti sen toiminnan valvontaan. Tässä suhteessa lääkärin pitää voida tehdä ratkaisunsa puhtaasti hoidollisin perustein. Algoritmin toimivuus käytännössä on sen valmistajan vastuulla. Samoin valmistaja vastaa siitä, että algoritmin toiminta ja siihen vaikuttavat muuttujat on kuvattu tarpeeksi kattavasti ja avoimesti.


Monimutkaisiin, suuria datamääriä käyttäviin algoritmeihin liittyvä päätösten perusteiden läpinäkymättömyys on haastava ongelma. Tällöin valmistajalla on ideaalitilanteessa aina vastuu kuvata sekä ne muuttujat, joita mallille tarjottiin, että ne muuttujat, jotka lopulliseen malliin valikoituivat. Kun kyseessä ovat selkeästi numeroina tai loogisina luokkina määritettävät muuttujat, tämän kuvauksen voi kohtalaisen helposti tehdä. Koneoppimisessa käytetään kuitenkin hyvin paljon esimerkiksi kuvadataa. Tällöin voi olla merkittävästi vaikeampaa hahmottaa koneen tuottaman luokituksen tai suosituksen kaikkia perusteita. Kenellä on eettinen vastuu, jos koneen ehdotus on väärällä tavalla diskriminoiva? Esimerkkinä tällaisesta todellisuudesta on rikoksen uusimisriskiä ennustava algoritmi, joka yllättäen painotti ihonväriä. Lääkärin työssä algoritmien pohjaoletusten pitää olla tiedossa. Esimerkiksi ainoastaan aasialaiseen tai amerikkalaiseen potilasdataan pohjautuvat johtopäätökset eivät välttämättä ole sellaisenaan sovellettavissa suomalaisessa väestössä.


Eettisesti hyvin kyseenalaista on sisällyttää hoidollisen tekoälyn syötteeseen taloudellisia attribuutteja. Hoidollista päätöksen tekoa tukevat algoritmit on erotettava taloudellisia näkökohtia arvioivista algoritmeista.


Koneoppimisen prosessi voi olla myös syklinen. Kone oppii koko ajan lisää ja edelleen optimoi algoritmia. Lääkinnällisissä laitteissa ja hoidollisissa algoritmeissa pulma on se, että jokaisen uuden optimoinnin jälkeen algoritmin turvallisuus ja tehokkuus pitäisi aina testata uudelleen. Tämän takia on laadittu ohjeet tietokoneohjelmista lääkinnällisinä laitteina (software as a medical device). Käytännössä algoritmia käytetään sellaisena, miksi se on optimoitu. Uusi optimointi suoritetaan erillisinä päivityksinä.


Meistä kaikista syntyy digitaalisessa maailmassa suuret määrät dataa, jota kuvataan termillä käyttäytymisylijäämä (behavioral surplus). Kyseessä on siis data, jota on syntynyt yksilön verkkokäyttäytymisen sivutuotteena. Tekoälyn käytännön etiikka kytkeytyy paljolti juuri käyttäytymisylijäämän hyödyntämiseen. Tekoälyä voi esimerkiksi hyödyntää laajasti väestön terveydentilan seurannassa. Mitä enemmän erilaista tietoa kykenemme yksilöstä keräämään (liikkuvuus, kulutustottumukset, sosiaalinen media, ja niin edelleen) sitä paremmin kykenemme arvioimaan hänen terveysriskejään. Näin voidaan toimia kuitenkin vain yksilön suostumuksella, koska EU:n tietosuoja-asetus asettaa tiukat rajat tiedonkeruulle ja tiukat yksilön tietosuojavaatimukset. Suostumuksen tulisi olla tarkkaan määritelty tiettyyn tilanteeseen ja käyttötarkoitukseen. Jos olemassa olevaa dataa yhdistelemällä on mahdollista havaita yksilöä koskeva terveysriski, jonka toteutuminen on asianmukaisella interventiolla estettävissä, voidaanko tämä analyysi tehdä ja yksilöä informoida tilanteesta? Kyllä, jos tällaiseen tiedon käyttöön on henkilön suostumus.


Digitaalinen maailma seurantakeinoineen on jo osoittanut, että jotkut ihmiset ovat erilaista hyötyä saadakseen myös valmiita luopumaan yksityisyydestään. Ei ole yksiselitteistä vastausta siihen, miten lääkärin tulee asemoitua tässä muutoksessa. Tärkeää on päivittää toimintamalleja tarpeen mukaan ja olla mukana jatkuvassa keskustelussa. Yksilön valmius tietojensa jakamiseen ei aina perustu näiden tietojen kaikkinaisten käyttömahdollisuuksien ymmärtämiseen. Siinä missä jotkin tiedot yksittäiseltä ihmiseltä eivät kertoisi mitään syvällistä henkilön terveydentilasta, samat tiedot kerättynä miljoonilta ihmisiltä voivat tekoälyn avulla tuottaa merkittävää tietoa esimerkiksi tietyn yksilön terveydestä. Kysymyksessä ei ole tällöin terveystietojen toisiokäyttö, jota säädellään erillisellä lailla, vaan muiden kuin terveystietojen toissijainen käyttö terveyteen liittyvissä tarkoituksissa. Lääkärin eettinen velvollisuus on toimia potilaan ja yksilön parhaaksi myös, kun lääketieteellistä asiantuntijuutta kysytään lisääntyvässä määrin algoritmisen terveysteknologian tuotantoon.


Tekoäly avaa uusia mahdollisuuksia käyttää kaikista meistä kerättävää dataa terveysriskien havaitsemiseen jo varhain, joten lääkärin tulisi ehdottomasti käyttää näitä tietoja potilaan hyödyksi ja hänen yksityisyyden suojaansa kunnioittaen. Algoritmien kehittyessä niiden käyttäminen terveydentilaa koskevien ennusteiden luomiseen ei kuitenkaan vaadi lääketieteellistä asiantuntemusta. Voiko siis esimerkiksi työnantaja vaatia työnhakijasta sosiaaliseen mediaan kertyneitä tietoja itselleen tehdäkseen hakijasta luonne- tai riskianalyysin? Miten työterveyslääkärin tulisi suhtautua pyyntöön olla mukana tällaisessa työssä? Onko henkilö, josta lääkäri saa itselleen koneen tekemän riskiprofiilin, potilas vai jotakin muuta? Kaikkiin asioihin ei ole vielä olemassa ehdottoman selviä vastauksia. Lääkäri on aina kuitenkin ensisijaisesti potilaan puolella ja luottamuksen säilyttäminen lääkärin ja potilaan välillä on olennaista myös tekoälyä tulevaisuudessa hyödynnettäessä.


Yleisen tekoälyn oletetaan pystyvän toimimaan ihmisaivojen tavoin useiden erityyppisten ongelmien ratkaisijana ja käyttämään aikaisempaa oppimaansa järkevästi uusissa tilanteissa ilman erillistä ohjelmointia. Asiantuntijoiden arviot siitä, milloin tällainen tekoäly olisi olemassa, vaihtelevat reilusta kymmenestä vuodesta ennusteeseen ei milloinkaan. Tämä johtuu osin siitä, että kukaan ei vielä tarkalleen tiedä, miten ihmisäly toimii. Niitä ohjeita ja koodeja, joita tällaiseen superälyyn tai siihen liittyvään juridiikkaan pitäisi liittää, on jo pohdittu. Älyllä yleisesti tarkoitetaan kykyä ymmärtää, oppia, soveltaa tietoa ja ratkaista erilaisia ongelmia. Äly ei ole yksi erityinen ominaisuus, vaan kokoelma erilaisia mentaalisia taitoja. Vahvasti yksinkertaistettuna älykkyyteen kuuluvat ainakin oppiminen – uusien asioiden omaksuminen kokemuksesta, päättely – looginen ajattelu ja syy-seuraussuhteen hahmottaminen, ongelmanratkaisutaito – kyky keksiä kelvollisia ratkaisuja uusiin tilanteisiin, muisti – tietojen säilyminen ja käyttö sekä sopeutuminen – toiminnan muuttaminen tilanteen mukaan. Älykkyyttä ei voi opiskella ainoastaan kirjoista, vaan älykkyyden ominaisuuksiin kuuluvat myös tunneäly – kyky ymmärtää omia ja muiden tunteita, luova äly – uusien ideoiden keksimistä ja käytännöllinen äly – arkielämän haastavissa tilanteissa pärjääminen.


Yleinen tekoäly on vielä hyvin teoreettinen käsite, mutta jo pelkkä toivekin mahdollisuudesta synnyttää tekoäly aiheuttaa aina eettisiä kysymyksiä. Näistä kysymyksistä erityisesti lääkäriä koskettavat asiat, jotka liittyvät lääkärinvalan elämän suojelua kosketteleviin osiin. Jos meillä olisi täällä keskuudessamme jotakin tai jokin, joka olisi älylliseltä suorituskyvyltään meidän vertaisemme tai meidän yläpuolellamme, pitäisikö tekoälylle antaa tällöin myös oikeuksia itsellisenä oliona? Arvotammeko nämä ominaisuudet älykkyyden, vaikeasti määriteltävän tietoisuuden vai jonkin muun perusteella? Näihin kysymyksiin ei ole yksiselitteistä vastausta. Ihminen ja kaikki eläinlajit muodostavat eräänlaisen kokonaisuuden. Tämän vuoksi pelkkä yleisen tekoälyn mahdollisuus on tuonut uusia ulottuvuuksia lääkärintyön eettiseen pohdintaan esimerkiksi eläinkokeiden suhteen.


Tekoäly antaa mahdollisuudet sekä laajentaa ymmärrystämme, mutta myös kaventaa oivallustamme. Eettisyyden ratkaisee kykymme edistää ensin mainittua, mutta välttää jälkimmäistä. Tekoälyn käytössä lääkärin täytyy kuitenkin aina toimia lääkärin etiikan periaatteiden mukaisesti.


Ei kommentteja:

Lähetä kommentti