Årskonferansen ble avholdt på Gamle museet i Oslo 28. mars, 2019. 

FEK-direktør Espen Engh åpnet årskonferansen og takket komitémedlemmene for innsatsen.
– Norge skal leve av resultatene av forskningen i årene fremover. Vi er helt avhengige av at den forskningsetiske kvaliteten er god. Alle må ha tillit til forskning. God forskningsetikk er kanskje det viktigste elementet for å bygge denne tilliten.
– Årskonferansen er et av våre viktigste møtepunkter for å bidra til samarbeid mellom komiteene. I dag skal vi høre fra ulike komiteer, og vi skal jobbe sammen i grupper for å bidra til samhandling. Et av de faglig prioriterte temaene i år er stordata. Dette er midt i blinken for FEK, både fordi det er viktig samfunnsmessig, men også fordi det er egnet for samarbeid på tvers. I forskningssammenheng kan stordata gi oss innsikter som ikke er mulige å oppnå på andre måter. Samtidig kan stordata være knyttet til særlige forskningsetiske problemstillinger, som verdighet og respekt for den enkelte, rettferdighet, tilgang til data, eierskap til data, kvalitetskontroll og mye annet.
– FEK er i ferd med å lage en fagrapport om stordata som også inkluderer KI. Vi håper på refleksjoner og innspill fra dere alle, som vi kan gjøre oss nytte av i rapporten.

Daglig leder i Decisions Jørgen Solberg var invitert for å fortelle om møteverktøyet komiteene nå har tatt i bruk, blant annet for å redusere oversendelse av dokumenter i e-post. Solberg forklarte selskapets visjon om bedre møter:
– Alle har en overdreven tro på evnen til å ta beslutninger i møter. Når man er stresset, får den impulsive komponenten for mye spillerom i beslutningsprosessene. Vi ønsker å bidra til at den analytiske komponenten fremmes.
Han ga en kort innføring i verktøyet, slik det er brukt av komiteene så langt, og tilleggsfunksjoner som kan tas i bruk.
Det kom innspill om at det er behov for bedre mulighet til å legge inn kommentarer i dokumentene, samt at tilgangen til agenda må være enkel over tid. Det kom også spørsmål om mulighet til å lage et dokumentbibliotek. Decisions og sekretariatet tar innspillene med i det videre arbeidet.

Om forskningsetikk i søknader til Forskningsrådet

Avdelingsdirektør Nina Hedlund i Forskningsrådet snakket om Etikk i Forskningsrådets utlysninger.

– Vi har gått fra 17 søknadstyper til sju, og vi har endret vurderingskriteriene til å bli overordnet for Forskningsrådets søknadstyper som sådan. Søknadene vurderes etter tre kriterier: Forskningskvalitet, virkninger og effekter, gjennomføringsevne. Etikkdefinisjonen som legges inn i søknadene er ikke endret. Vi ber om at søker gjør rede for relevante etiske spørsmål, og søknader blir vurdert ut fra det. Vi er opptatt av at prosjekter skal holde en høy etisk standard. Hovedansvaret for dette ligger hos forskere og organisasjonen, det er også kontraktsfestet.

Hun forklarte nærmere hva de legger i begrepet etikk:
– Vi har nedfelt i kontrakten og de generelle vilkårene at man i prosessen skal ta stilling til om det er etiske problemstillinger knyttet til prosjektet. Det skal også være originalt arbeid, ikke plagiat eller stofftyveri.
– Tidligere var etikk et seleksjonskriterium sammen med blant annet miljøkonsekvenser og kjønnsbalanse. Denne vurderingen ble oftest gjort at administrasjonen og/eller programstyrene. Nå er det en del av «excellencevurderingen», og vurderingen blir gjort av våre eksterne eksperter. Ekspertene får tilgang til all informasjon de trenger for å gjøre vurderingene.

I malen for prosjektbeskrivelse står det nå hva som kreves inkludert, forklarte Hedlund.
– Er det noen etiske utfordringer å ta hensyn til? Beskriv hvordan disse vil bli håndtert. Tidligere var dette et såkalt haleheng, nå er det inkludert i hoveddelen.
– Når vi har innført de nye vurderingskriteriene har vi skjelet mye til EU og hvordan de gjør det i ERC-søknadene og tidels også i Horizon 2020. EU har en etikkvurdering i etterkant av innvilgelse – søkere får innvilget, forutsatt at etisk analyse blir godkjent. Vi har vurdert den fremgangsmåten og kommet til at det gjør vi ikke. Nå er vi litt i et prøveår, men det kan komme fram argumenter som gjør at vi endrer på dette på et senere tidspunkt. . Det er prosjektansvarlig som har det fulle og hele ansvaret for søknadens innhold.
Når vi inngår en kontrakt med prosjektansvarlig og er enige om innholdet i kontrakten, mener vi dette er tilstrekkelig.

– Siden det blir endringer i hvordan ekspertene skal jobbe, må vi ha en god dialog med ekspertene. Vi informerer ekspertene om hvordan og hva som skal vurderes. Vi tar gjerne innspill fra dere om dere synes dette er tilstrekkelig, eller om vi bør tenke annerledes og finne andre måter å vurdere etikken i søknaden på.

Fra salen ble Hedlund oppfordret til å inkludere komiteene i arbeidet med å utforme forskningsetisk veiledning til ekspertene. 

Videre ble hun spurt om Forskningsrådet har et system for å ta imot meldinger om at noe ikke er greit i et prosjekt, og om hva Forskningsrådet gjør hvis de opplever et avtalebrudd?

– Vi har et varslingssystem som de der ute kan bruke. Og vi har oppfølging av prosjektene via prosjektendringsmodul, rapportering og ved noen anledninger prosjektmøter for å se om de følger planen. Vi har rutiner for håndtering av mislighold og tilsvarende for heving av kontrakt. Fra tid til annen hever vi kontrakter. Får vi meldinger om at noen som ikke er en del av våre prosjekter føler seg urettferdig behandlet, henviser vi til Granskingsutvalget.

Etikken en del av Forskningsrådets «excellence»-vurdering

Tidligere var etikken et eget felt. Nå skal etikken beskrives sammen med problemstillingen generelt, og etikken skal også vurderes sammen med «excellence», som er veldig mye mer enn bare etikk. Hvorfor mener dere dette fører til økt fokus på etikken? Spurte et av komitémedlemmene.
– Vi må prøve noe nytt, fordi vi har fått kritikk for ikke å ta etikk på alvor tidligere. Ved å ta det inn i totalvurderingen her, mener vi det vil vurderes annerledes. Har man ikke det på stell, får man ikke god score på «excellence». Det kan bli nødvendig å koble an til FEK i noen tilfeller, for å vurdere prosjektleders beskrivelse.

Fra salen kom forslag om én person i hvert panel med kompetanse på forskningsetikk. I tillegg ble det spurt hvem som skal gjøre vurderinger knyttet til RRI (responsible reseach and innovation).
– Vi har ikke lagt inn RRI som en komponent spesielt, men det er et godt poeng. Når det gjelder panelene: Vi opererer med 200 paneler. Skal vi ha en med etisk fagkompetanse i hvert panel, vil det bety noen utfordringer for oss. Men vi tar innspillet med oss i vårt videre arbeid.

Det ble videre spurt om det nye systemet gjør det mer aktuelt med etisk følgeforskning som ivaretar etiske utfordringer i prosjekter, men Hedlund avviste dette:
– Utlysningene vi har er temaorienterte. Jeg tror ikke dette ligger i noen av de temaene som vi lyser ut.

Hva hvis et prosjekt er godkjent av en komité og panelet finner at det ikke holder mål? spurte et komitémedlem.
– Det gis en karakter på «excellence». Der inngår etikkvurderingen. En etikkvurdering som ikke holder mål, vil føre til at totalvurderingen av «excellence» ikke blir god. Det er ekspertene som bestemmer den faglige vurderingen av søknadene, svarte Hedlund.

På spørsmål angående oppfølging av etiske dilemmaer som oppstår underveis i prosjektet, kommenterte Hedlund:
– Vi skal informeres om endringer i prosjektet, der skal også dette rapporteres. De kan oppdage det og følge opp på en annen måte, men det ligger mye på prosjektansvarlig i de prosjektene vi støtter.

Stordata – et tverrfaglig forskningsetisk tema

Neste del av programmet dreide seg om stordata. NESH-leder Elisabeth Staksrud innledet om hvorfor NESH har spilt inn stordata som et felles tema for komiteene, og viste til eksempler på hvordan slektsforskning koblet med DNA-sekvensering for eksempel kan lede til oppklaring av gamle kriminalsaker – som med The Golden State Killer i USA.

– Det finnes også eksempler på at firmaer som samler inn DNA og sekvenserer for deg i slektsforskning, selger denne informasjonen videre til de såkalte «big pharma», sa Staksrud, med henvisning til 23andme.
Hun brukte også et eksempel fra såkalte date-apper, som Tinder:
– Studenter i Århus brukte en webskraper for å hente inn informasjon fra en slik nettdatingtjeneste (OkCupid). Så knyttet de seg til et rammeverk for open science: All informasjonen de har skrapet fra nettet, legger de i excel og publiserer åpent. Og så twitrer de om det. Da dukker det opp noen spørsmål angående blant annet sensitiviteten i det de publiserer, men de svarer at «dataene ligger allerede tilgjengelig, vi bare presenterer det i en mer brukbar form».
– De som har meldt seg på datingtjenesten har blitt stilt spørsmål som: liker du å bli bundet når du har sex, synes du funksjonshemmede bør få barn, har du vært utro.. relativt sensitiv informasjon.
– Jeg innser plutselig at kanskje BA-studenten blir min største utfordring i universitetssystemet. Studentene har ingen opplæring i forskningsetikk, hvem som helst kan gjøre dette, også utenom forskningsprosjekter. Hvem har ansvaret da?

Oppdateringen av NESHs internettretningslinjer var en urovekkende lang og vanskelig prosess, forklarte Staksrud.
– Vi ønsker å dekke alt i våre retningslinjer. Etter et års tid justerte vi denne forventingen. Vi kan dekke menneskene, kom vi til, men endte opp med å lage en veileder. Grunnen til at vi har tatt initiativet til dette samarbeidet, er at vi mener det trengs et tverrfaglig arbeid. Veilederen har fem hovedområder. Den femte delen som skulle handle om «open data» eller stordata ser vi trenger en tverrfaglig tilnærming, derfor invitasjonen til resten av FEK.

Staksrud viste til FNs definisjon av stordata, nemlig at det er data som er digitalt generert, passivt produsert, har automatisk innsamling, er geografisk og tidsmessig sporbart og alltid analyserbart.
Hun påpekte at tilgjengeligheten av stordata er mye større enn tidligere, og økende. Og at feltet bringer med seg forskningsetiske utfordringer.
– Når det gjelder forskningsprosessen: Klarer folk å overskue hva de samtykker til? Hva med samtykke for dem det predikeres på? Vi må kanskje gi noen mål for hva det er greit og ikke greit å gjøre.
– Og hva med re-identifisering? Hva med teknologisk overreach – når man har en god algoritme, ser alt ut som et beregningsproblem? Bør teknologer inn i samfunnsforskning?
I tillegg påpekte Staksrud at algoritmer gjerne «fremstilles som nøytrale, objektive, men de designes av mennesker og har innebygget bias».
- Big data gir oss mange fristelser... som forskere, finansiører, forvaltere må vi bidra til å gi noen retninger i etikken. Derfor kan ikke NESH redde verden helt alene.

Museene bør definere tydelige vilkår

Sean Denham i Skjelettutvalget fortalte om hvordan DNA-data i antropologisk forskning skaper hodebry.
Historisk er forskningen på menneskelige levninger knyttet til rasebiologien.
- Den underliggende antagelsen er at hvite europeiske menn er øverst i hierarkiet. Alle andre innplasseres under dem, og denne antagelsen ble det aldri stilt spørsmål ved.
Fra Norge ble samene ansett som mindre intelligente enn sørlige nordmenn som følge av denne klassifiseringen. Og den antagelsen holdt stand inn i det 20. århundret.
– Dette ligger fortsatt i bakhodet på urfolk, når de hører om denne typen forskning.
Siden har genomrevolusjonen og aDNA (ancient DNA) gitt oss mulighet til en helt annen klassifisering av human diversitet, forklarte Denham.
– Men det handler fortsatt om klassifisering og kvantifisering, og det er kort vei derfra til vår uhyggelige historie.

De forskningsetiske utfordringene i dag handler ofte om å spore samtykke, eller om bruk eller misbruk av tilgjengeliggjort data. Ettersom kartlegging av aDNA har blitt mye rimeligere, har metodebruken eksplodert, forklarte Denham. Samtidig destrueres materialet av slik prøvetaking, fordi man må sende fysiske deler av materialet til sekvensering.
– Ofte sier forskere at de skal bruke metoden, men de vet ikke hvilke svar metoden kan gi. Hvordan påvirker dette oss? Det legger press på samlinger. I vårt museum var eksempelvis noe av vårt mest verdifulle materiale utsatt for konkurranse fra to forskergrupper. Vi valgte den gruppen som i størst grad ville dele data med museet.

Samtidig har museet – og andre forvaltere av denne typen materiale – begrenset kontroll, forklarte Denham.
– Når jeg sender fra meg materiale for sekvensering, vet jeg egentlig ikke hva som skjer med det, eller med dataene som hentes ut. Jeg mener museene må definere vilkår tydeligere når de samarbeider med genetikere.

Og genetisk informasjon summerer seg etter hver til stordata. Den største samlingen, Genbank, har rundt en milliard hele genomsekvenseringer av alt fra dyr til planter, fortalte Denham.
– Hvordan distribueres dette? Når data publiseres, publiseres bare det som er relevant for artikkelen. Det som ikke publiseres, er det nesten ingen som vet om at eksisterer.

Når det gjelder samtykke, er problemet både at det kan være vanskelig å spore en tillatelse til bruk tilbake i tid. I tillegg er det mange samlinger som inneholder materiale fra andre befolkninger, så får du nei et sted, kan du gå til en annen samling.
– Det er uetisk – men det trenger ikke bli synlig i artikkelen som publiseres, sa Denham.

Noen ganger er det også vanskelig å spore hvor materiale kommer fra, ikke alle databaser eller eksemplarer er like godt merket.

Informasjonen kan også misbrukes til å lage kart over genetisk spredning globalt.
– Du skaper oss og dem, gruppeidentitet som egentlig er meningsløs. Vi har ikke kommet så mye lenger enn vi var da vi snakket om langskaller og kortskaller. Forskere har opplevd personlige trusler for å støtte historiske funn av personer med mørk hud i det britiske samfunnet, for eksempel. Vi må være forsiktige med hva vi tar prøver av og hvordan, og vi må være forsiktige med deling av data, avsluttet Denham.

– Må veie mellom åpenhet og kvalitet

NENT-medlem Jim Tørresen innledet om forskningsetiske perspektiver innen kunstig intelligens (KI), ettersom en arbeidsgruppe i komiteen nå jobber med en betenking om dette temaet.

Han forklarte innledningsvis forskjellen på KI og tradisjonelle dataprogrammer:
– Oppførselen til dataprogrammer har tradisjonelt blitt forhåndsprogrammert av en ekspert, mens med KI brukes store mengder data til å trene opp systemene. Dataene som samles inn forteller systemet hvordan det skal agere, enten i en utviklingsfase, eller det som i det siste har blitt mer utbredt, at systemet lærer mens det er i bruk. Et eksempel er telefonen som lærer seg å omgjøre tale til tekst, gjennom talegjenkjenning og korreksjoner den mottar på feil i gjenkjenningen.

KI har blitt mye bedre fordi tilgangen til data og regnekraften har utviklet seg veldig. I tillegg har algoritmene blitt bedre, sa Tørresen.
– KI påvirker i dag de fleste områder av samfunnet. Samtidig er det en del usikkerhet knyttet til dette. At systemet trenes på data gjør at vi ikke har kontroll på hvordan systemene vil oppføre seg og hvordan de kan påvirkes og styres. Datamaskiner har tradisjonelt vært gode til en del ting vi mennesker ikke er så gode til som å jobbe med store tall og mye tekst. Nå skal vi i tillegg få robotene til å ta over en del av de fysiske oppgavene vi tradisjonelt har gjort, ved bruk av KI. Der ligger det en del farer. Man skal ikke ha sett så mange filmer på kino før man har fått med seg hvordan dette kan ende, men nå roper også forskere og ledere i næringslivet varsku fordi dette kan påvirke oss og legge begrensninger på oss.

Tørresen forklarte at NENT lager sin betenkning for å bidra til økt bevissthet og diskusjon, og for å være en veileder. Målgruppen er forskere og forskningsinstitusjoner. Arbeidsgruppen har fått innspill fra relevante miljøer i flere runder. De har fått en rekke innspill knyttet til utfordringer ved bruk av KI.
– Verdighet, autonomi, personvern, det å se konsekvenser – det kan være vanskelig å fange opp hvordan andre kan bruke det du lager. Rettferdighet eller ikke-diskriminering, og transparens: når systemet gjør noe alvorlig galt, bør det være mulig å forstå feilen og hvordan man kan korrigere systemet slik at den ikke gjentas.

Tørresen viste til at det er ulikt i hvilken grad en forsker som jobber med sitt prosjekt føler et ansvar for langtidseffekter av arbeidet.
– Her er det viktig å bevisstgjøre. Den potensielle skaden knyttet til langsiktige konsekvenser er høy.
Ikke minst er dette aktuelt når systemene fungerer som såkalte sorte bokser, der du ikke kan spore hvordan data flyter.

– Man må også veie mellom åpenhet og kvalitet på systemet, som i noen tilfeller kan være vanskelig å oppfylle samtidig. Tilsvarende utfordring ligger i balansen mellom personvern og ønskelig mengde data for å trene opp systemer. Vi ønsker systemer skal fungere best mulig, men må også ta hensyn til hvordan personer påvirkes av at data samles inn og kan misbrukes, sa Tørresen.

Kan luke ut medisiner som ikke fungerer

Leder for HUNT datasenter Oddgeir Lingaas Holmen snakket om stordata innen helse, med utgangspunkt i gensekvensering.
– Når du ser på de som er syke og finner gener som er uvanlige, kan du finne hva de genene skal gjøre og hva som ikke fungere, så kan du rette på det.

Utviklingen innen genomsekvensering har vært enorm de siste 15 årene, viste Lingaas Holmen. Nå rommer den største samlingen av gensekvenser data fra 500 000 personer.
– Vi har hatt HUNT siden 1980-tallet og ferdigstilte HUNT 4 for et par uker siden. I prosjektet har vi en databank som jobber med å håndtere data og en biobank som har ansvar for det biologiske materialet. Vi har jobbet med digitalisering av prøvene (70 000 prøver) – koblet med registerdata. Så har vi noen tusen sykdomstyper som vi kan sammenligne med gendata. Vi kan nå begynne å kaste ut medisiner som ikke fungerer fra felleskatalogen. Vi jobber med å fange data, kvalitetskontrollere, lagre data og analysere. På HUNT gir vi folk lagring og analysekapasitet, så får de gå inn og gjøre det de vil i vårt system.

Han påpekte at det er viktig å ha et godt system, ettersom hele samlingen er basert på frivillighet.
– Tillit fra befolkningen krever tillitsverdige organisasjoner. Det er en forutsetning for vekst at du har kontroll. Vi må ivareta tilliten til både studiedeltakelse og offentlig forvaltning. Data er donert gjennom frivillighet og offentlighet.
– Kunsten er å balansere tilgjengelighet og konfidensialitet. Og skal du ha sikre systemer, må de være enkle å bruke. Er de ikke enkle, tar folk data ut, også havner de under pianoet i stua hjemme, sa Lingaas Holmen.

De merket en endring i fjor med ny personopplysningslov:
– GDPR har økt avstanden mellom de ansvarlige nøkkelkontrollene. Etikk er noe annet enn personvern som er noe annet enn sikkerhet. Men alle interessante problemstillingene skjer i gråsonene mellom disse feltene. Vi tror det er rom for en mer helhetlig vurdering.

Avslutningsvis skisserte Lingaas Holmen noen utfordringer knyttet til stordata:
Data som deponeres etter prosjektslutt trenger også beskyttelse. Hvem bør ha ansvar for slike deponier?
Anonymisering er vanskelig. Hvem skal bestemme hva som er anonymt?
Uhell vil skje. Hvem skal sikre at beredskapen er på plass?
Store norske universitet skal nå inn og hjelpe Kina med systemer. Hvem har ansvaret ved misbruk av data?

– Jeg ser behovet for mye tydeligere eierstyring av store data. Næringsutvikling på helsedata finnes nesten ikke i Norge. Det koster så mye å begynne. Kanskje kan vi bruke «De ti oljebud» og lage tilsvarende for store data. Vi kan lære mye av eierstyring i forkant av utviklingen av oljenæringen.

Trenger mer kompetanse

I paneldebatten om stordata ble det blant annet spurt om ikke lovregulering kan forhindre misbruk av stordata, noe panelet mente kunne være mulig på noen områder. Samtidig ble det påpekt at ettersom kommersielle virksomheter globalt allerede eier og mottar store mengder data, kan det være vanskelig å se for seg en effektiv regulering.

Myndighetene har derimot noe å si for regulering av teknologibruken, blant annet når det gjelder automatisering av arbeidslivet, ble det påpekt.

Ettersom stordata blir et tema innen stadig flere forskningsområder, og for tverrfaglige prosjekter, ble det stilt spørsmål ved om de forskningsetiske komiteene trenger mer kompetanse på dette feltet. REK har allerede prosjekter til vurdering der stordata-problemstillinger inngår.

I tillegg ble det påpekt at det juridisk kan være store forskjeller på de ulike fagfeltene, selv om det ikke er det forskningsetisk.

Behovet for kompetanse ble fremhevet av flere, og da også knyttet til behovet for utdanning av slik kompetanse på sikt.