Forskningsetikk: Bruke KI?

Kunstig intelligens og maskinlæring er blitt hverdagsbegreper på kort tid. Men utviklingen fører med seg noen utfordringer. Bilde: Creative Commons

Mange har tatt i bruk KI som assistanse for å skrive tekster. Men er det juks? Ikke nødvendigvis, men kunstig intelligens reiser etiske problemstillinger.

Ulike språklæringsmodeller, ofte kalt kunstig intelligens eller KI/AI, har på kort tid fått stor utbredelse. Mye av det modellen foreslår, høres fornuftig ut fordi den baserer seg på et stort utsnitt av verdens samlede kunnskapsproduksjon.

På den annen side er ikke språklæringsmodeller som ChatGPT laget for å finne sannhet, stille seg kritisk eller være logisk. Modellen står fritt til å finne opp sine egne fakta. Den finner også opp kilder som ikke finnes, på forespørsel. Dette bør være nok til å fortelle oss at ChatGPT og andre KI-modeller er uegnet som kilder i forskning.

Lærer av seg selv

En annen ting som bør bekymre oss når det gjelder språklæringsmodeller, er at de produserer tekster i et så stort tempo at tekstene de selv har produsert, og tekstene som brukerne forer dem, blir en del av læringsgrunnlaget for maskinene.
Det betyr at maskinene blir dårligere etter hvert, fordi de kopierer brukernes feil, og reproduserer egne feil.

Tenk på at det du selv limer inn i språkmodellene blir brukt som maskintreningsmateriale, og at du slik sett gir selskaper som f.eks ChatGTP rettigheter til ditt åndsverk.

Er det uredelig å bruke KI?

Om det er uredelig å bruke KI eller ikke, avhenger av hvordan man bruker det. De fleste forstår at det å få KI til å skrive en tekst som du deretter utgir for å være din egen, er et brudd på den akademiske redeligheten.

Men hva om man får KI til å rette skrivefeil eller skrive om setningene sine? Dersom du skriver en sakprosatekst, kan det være nyttig, men dersom du skriver en tekst i et språkfag, der det du måles på nettopp er hvor god syntaks og grammatikk du har, er det juks.

Hva er KI god på?

KI er ikke god på fakta eller som kilde. Det KI derimot kan være god på, er å oppsummere debatter og å trekke ut essensen av tekster.

Derfor bruker mange KI som sparringpartner for sine egne tekster. Å spørre KI “Hva er hovedpoenget i dette avsnittet?”, kan gi deg en pekepinn på hva du egentlig har skrevet.

KI kan også gi deg en oppsummering av argumenter i en diskusjon som har pågått over tid, for eksempel ved å spørre KI “Hva er argumentene for å senke pensjonsalderen?”. Merk dog at KI ikke oppgir kilder, så du må fortsatt gjøre et kildesøkingsarbeid.

Er KI uetisk i seg selv?

Tre hovedpunkter peker seg ut når det gjelder KI: Tyveri av åndsverk, sosial dumping og klimaavtrykk.

KI har blitt trent på tekster og kunstverk skrevet og produsert av mennesker som verken har blitt kreditert eller kompensert. Det er ikke avgjort ennå om dette regnes som brudd på åndsverklovene.

Karbonutslippene til datasentrene er vanskelig å fastslå, men vi vet at de er høye og at all bruk av energi har en miljømessig kostnad. Vi vet med sikkerhet at det går med enorme mengder vann til å kjøle ned datasentrene som genererer KI. Hver eneste gang du gir ChatGTP et spørsmål eller en såkalt “prompt”, krever det omtrent en halv liter vann.

Teknologiselskapene som lager og leverer KI, trenger også mennesker til å trene algoritmene sine. Til dette bruker de billig arbeidskraft. For eksempel fikk arbeidere i Kenya 2 dollar timen, men de baserer seg også på arbeid utført i andre lavkostnadsland, som India eller Fillippinene, eller i flyktningeleire i Libanon.

Oppsummering

  • KI er ikke designet for å være sannferdig, logisk eller kritisk. De gir en sannsynlig versjon av sannheten, i beste fall.
  • Maskinlæringsmodeller lærer nå av tekster produsert av andre maskinlæringsmodeller og blir derfor mer usannferdige, unøyaktige og mindre språklig korrekte.
  • Om det er juks å bruke KI, kommer an på hva du bruker den til. Standarder for redelighet i forskning gjelder.
  • KI har flere bruksområder når det gjelder akademisk skriving. Nytten av disse må veies opp mot de etiske omkostningene.
  • KI-maskinvare har blitt trent på åndsverk som teknologiselskapene ikke har betalt for, og de tjener seg derfor rike på andres arbeid.
  • De store datasentrene krever enormt med energi, noe som slipper ut CO2, og som beslaglegger viktige naturressurser.
  • Teknologiselskapene er kjent for sosial dumping og utnyttelse av arbeidere i lavkostland.

Litteratur og kilder

Federico Guerrini, (2023). AI’S Unsustainable Water Use: How Tech Giants Contribute To Global Water Shortages. Forbes. Publisert:14.04.2023:
https://www.forbes.com/sites/federicoguerrini/2023/04/14/ais-unsustainable-water-use-how-tech-giants-contribute-to-global-water-shortages

Are Bøe Pedersen (2023). Ett år med ChatGPT: Etiske blindsoner eller lukkede øyne?, Khrono. Publisert: 03.12.2023: https://www.khrono.no/ett-ar-med-chatgpt-etiske-blindsoner-eller-lukkede-oyne/830080

Billy Perrigo (2023). OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic, Time. Publisert: 18.01.2023: https://time.com/6247678/openai-chatgpt-kenya-workers/

Arne Lirhus (2024). Kunstig intelligens i skriveopplæringen. Cappelen Damm Akademisk.