Parhaat käytännöt tekoälyn vastuulliseen hyödyntämiseen tutkimuksen apuvälineenä
Sisältö
Johdanto
Tekoäly (AI) tarjoaa merkittäviä mahdollisuuksia tutkimuksessa ja TKI-toiminnassa, mutta tuo mukanaan myös uudenlaisia eettisiä ja juridisia haasteita. Korkeakoulujen henkilöstön ja opiskelijoiden tulee osata hyödyntää tekoälyä tavalla, joka tukee tutkimusetiikkaa, vastuullista tiedonkäyttöä ja avoimen tieteen periaatteita.
Tunnista ja hallitse tekoälyn riskit
Tekoälyn käyttöön liittyy riskejä, jotka voivat vaarantaa tutkimuksen luotettavuutta:
- Satunnaiset ja systemaattiset virheet: Esim. harhaanjohtavat analyysit tai vääriä viitteitä tuottavat kielimallit.
- Vinoumat (bias): Tekoäly voi toistaa tai vahvistaa aineistossa olevia sosiaalisia, kulttuurisia tai tieteellisiä vinoumia.
- “Black box” -ongelma: AI:n toiminnan läpinäkymättömyys voi vaikeuttaa luotettavuuden arviointia.
- Väärinkäyttö: Esimerkiksi tekoälyn käyttö plagioinnin välineenä tai tekaistujen tulosten tuottamisessa.
HTK (Hyvä tieteellinen käytäntö)-periaatteet edellyttävät huolellisuutta ja rehellisyyttä myös silloin, kun tekoälyä käytetään apuna tiedonhaussa, analyysissa tai kirjoittamisessa. Epäluotettavan tekoälyn käyttö ilman kriittistä arviointia voi rikkoa HTK:n periaatteita.
Vinkki: Dokumentoi tekoälyn käyttö tutkimusprosessin jokaisessa vaiheessa selkeästi.
Kunnioita tekijänoikeuksia ja avoimuutta
HTK-periaatteiden mukaan muiden tutkijoiden työn kunnioittaminen tarkoittaa myös sitä, ettei tekoälyn avulla tuotettu sisältö saa johtaa piiloplagiointiin tai epäselvyyksiin siitä, kuka on varsinaisesti tuottanut tutkimustekstin.
- Tekoäly ei voi olla tekijä, eikä sitä tule nimetä kirjoittajaksi.
- Ilmoita tekoälyn käytöstä selkeästi ja läpinäkyvästi.
- Huolehdi siitä, että käytetyt lähteet ovat oikeita ja luotettavia – tekoäly saattaa tuottaa “hallusinaatioita”.
Vinkki: Käytä tekoälyä avustavana työkaluna, ei sisällöntuottajana ilman omaa arviointia.
Hyödynnä tekoälyä eettisesti ja tutkimuksen normeja noudattaen
HTK ohjaa siihen, että tutkimuksen suunnittelussa ja raportoinnissa on oltava avoin ja tarkka. Tekoälyn käyttö on kuvattava samalla tavalla kuin muutkin työkalut tai menetelmät. Perustuen Resnikin ja Hosseinin (2024) suosituksiin:
- Vastuu tekoälyn käytöstä on aina tutkijalla.
- Tunnista tekoälyn rooli tutkimuksen eettisissä normeissa, kuten:
- Rehellisyys ja läpinäkyvyys
- Toistettavuus
- Sosiaalinen vastuullisuus
- Oikeudenmukaisuus ja syrjimättömyys
Vinkki: Tekoälyn tuottama data (esim. synteettinen aineisto) tulee merkitä ja selittää selkeästi.
Suojaa yksityisyys ja aineistot
- Älä syötä luottamuksellista tai henkilötietoja sisältävää aineistoa avoimiin tekoälypalveluihin (esim. ChatGPT).
- Käytä paikallisesti hallittuja ja tietoturvallisia ympäristöjä aina kun mahdollista.
Vinkki: Tarkista organisaatiosi ohjeet tietosuojasta ja aineistonhallinnasta ennen tekoälyn käyttöä.
Vinkki: Opeta myös opiskelijoita käyttämään tekoälyä vastuullisesti osana tutkimusprosessia.
Tarkistuslista tekoälyn vastuulliseen käyttöön tutkimuksessa
Oletko ilmoittanut tekoälyn käytöstä?
Onko tekoälyn käyttö perusteltua ja läpinäkyvää?
Oletko tarkistanut tekoälyn tuottaman sisällön virheiden ja väärien viitteiden varalta?
Onko tekoälyä käytetty tutkimuseettisten periaatteiden mukaisesti?
Oletko suojannut luottamukselliset tiedot?
Lähteet
TENK (2023): Hyvä tieteellinen käytäntö(HTK)
HAMK: Tekoälyn käyttö tekijänoikeuksia kunnioittaen
HAMK: Tekoäly tiedonhaun tukena
HAMK: Parhaat käytännöt tekoälyn vastuulliseen hyödyntämiseen opetuksessa
Resnik, D. & Hosseini, M. (2024). The ethics of using artificial intelligence in scientific research. AI & Ethics. https://doi.org/10.1007/s43681-024-00493-8