«De etiske spørsmålene som blir diskutert i forbindelse med kunstig intelligens (KI) i offentligheten er ikke alltid så relevante. Dystopiske fremstillinger råder, og mange av problemstillingene er konstruerte. Vi bør være flinkere til å reflektere over muligheter og ulemper med eksisterende verktøy og data, i stedet for å skue for langt fremover.»

Det var en av tilbakemeldingene under NENTs workshop forrige uke. Her møtte komiteens arbeidsgruppe for KI fagfolk fra hele landet. Målet var erfaringsutveksling knyttet til forskningsetiske utfordringer for feltet.

Under workshopen ble det påpekt at arbeidet med kunstig intelligens ikke er nytt. Mange av metodene som brukes i dag, er veletablerte. De store mengdene data vi etter hvert har tilgjengelig, og som algoritmene kan nyttiggjøre seg, reiser imidlertid nye problemstillinger, som for eksempel:

  • I forskningsetikken er åpenhet et grunnleggende prinsipp. Krav om åpenhet utfordres ved manglende gjennomsiktighet, såkalt sort boks-problematikk. Det er ikke alltid vi vet hvordan en algoritme har kommet frem til et resultat, fordi vi ikke vet hvordan systemet vekter ulike data. Som bruker har du samtidig liten mulighet til å identifisere de epistemologiske betingelsene og rammevilkårene maskinene jobber ut fra. For eksempel: Deep Mind utvikler algoritmer ved å bygge på grunnleggende antakelser fra teorien om rasjonelle valg (rational choice theory) som er omstridte.
  • Forskningsetikken er viktig i vurderinger knyttet til eierskap, forvaltning og deling av data. Dette gjelder særlig der dataene inkluderer data som kan inneholde personlig informasjon. Vi trenger å diskutere hvordan store datamengder eies, forvaltes og deles med kommersielle aktører. Dette handler dels om å sikre hensyn til personer som har avgitt data som brukes i forskning, og dels om å sikre rettferdig tilgang til data.
  • Forskningsetisk sett har forskeren ansvar for å sikre vitenskapelig kvalitet, men forskeren har også et videre samfunnsansvar i henhold til NENTs retningslinjer, som bl.a. gjelder vurderinger knyttet til bruk av forskningsresultater. Forskjellen på en menneskelig hjerne og en KI er ansvarligheten. Et menneske er en moralsk og juridisk aktør, tildelt visse rettigheter og plikter. En KI er ikke det og har ikke ansvar. Hvordan forvaltes ansvaret når en KI gjør en feil?
  • Formidling av usikkerhet og risiko utgjør en viktig dimensjon ved forskerens samfunnsansvar. Når det gjelder KI-forskning som får store konsekvenser for mennesker og samfunn, oppstår spørsmål om kompetanse for å vurdere risiko og usikkerhet. Her kan teknologene og matematikerne som utvikler systemene i mange tilfeller komme til kort, og det er viktig å sikre relevant kompetanse.

Vi bør ha et rammeverk for kunstig intelligens som sier noe om hvilke hensyn du må ta når du anvender kunnskapen, og gjerne belyse gjennom eksempler hvordan forskningsetiske prinsipper utfordres i KI-forskning, var tilbakemeldingen fra workshopen. Flere påpekte et behov for konkret veiledning, snarere enn retningslinjer, både fordi feltet beveger seg fort, og fordi det vil være mulig å ta utgangspunkt i de nasjonale fagspesifikke retningslinjene som allerede foreligger.

NENT jobber videre med en forskningsetisk betenkning om kunstig intelligens, som skal ferdigstilles før sommeren.