Biometri

Biometri er automatisert gjenkjennelse og identifisering av personer. Fingeravtrykk, ansikts-gjenkjenning, iris-skanning, ganglag og håndavtrykk er eksempler på biometriske teknologier. I fremtiden vil vi trolig se mer utstrakt bruk av DNA, adferdsbaserte og multi-biometriske applikasjoner (Jain og Flynn 2008). Biometriske systemer kan brukes innenfor en rekke områder: i helsevesenet, i informasjonssystemer, i transportsektoren, på arbeidsplassen, til pålogging på PC’er, til å adgangsregulere sikrede områder, autentisere transaksjoner og i regulering av globale migrasjonsstrømmer. Mange av de mest kontroversielle spørsmålene knyttet til biometri henger sammen med hvordan teknologien gjør menneskekroppen digitalt lesbar (van der Ploeg 1999).

Om Forskningsetisk bibliotek (FBIB). Denne tema-artikkelen inngår i Forskningsetisk bibliotek (FBIB), en ressurs som tilbyr spesialforfattede artikler om forskningsetiske emner, skrevet av en lang rekke forskjellige eksperter. Til sammen skal artiklene tjene som introduksjon til de viktigste forskningsetiske temaene. Hver artikkel gir også tilgang til ytterligere ressurser, blant annet diskusjonseksempler/case.

Formålet er å bidra til refleksjon og debatt. De vinklinger og oppfatninger som presenteres i FBIB-artiklene uttrykker ikke nødvendigvis De nasjonale forskningsetiske komiteenes standpunkt; den enkelte forfatter står for sine perspektiver.

Gjennom digitalisering innrulleres kroppen i informasjonsnettverk; individualitet og subjektivitet blir til digitale objekt som kan overvåkes, utveksles og brukes av myndigheter og kommersielle aktører. Mulige problemer oppstår idet informasjon brukes til formål som ligger utenfor individets kunnskaps- og innflytelsessfære. Særlig alvorlig er tilfeller hvor slik informasjon får ”tilbakevirkende kraft”, det vil si hvor den får direkte konsekvenser for personen det gjelder. Store betenkeligheter kan også knyttes til pågående forskning, i Norge og internasjonalt, med mål om å utvikle metoder og algoritmer som kan gjenkjenne og predikere suspekt adferd og kriminelle intensjoner.

 Når det sies at biometri er en ”sikkerhets-teknologi” vil dette uvegerlig ha en rekke mulige betydninger, alt ettersom hvilke sammenheng man snakker om. Som et utgangspunkt betyr det at teknologien skal forbedre prosesser vanligvis kjent som autentisering. Biometri, sies det ofte, erstatter autentisering basert på ”noe man har” (ID-kort, pass, etc.), eller ”noe man vet” (et passord) til ”noe man er” (kroppen). Bruken av unike kroppslige kjennetegn knyttes tettere til en bestemt status: medlem av helsevesen (helsekort, nasjonalt ID-kort), klarert bruker av et system eller en bygning, eller borger av et land (pass, nasjonalt ID-kort). Slik kan biometriske metoder forenkle en rekke oppgaver. Mange av disse er knyttet til statens evne til å identifisere individer i stadig mer informasjonsintensive og omskiftelige samfunn, men kommersielle applikasjoner spres også raskt. 

 Begrepet ”sikkerhet” blir vanskeligere idet vi også tar inn over oss at biometri har tydelige såkalt ”dobbel bruk” problematikk (dual use). Med ”dobbel bruk” menes det at en bestemt teknologi kan brukes for både fredelige (sivile), destruktive (terrorisme), militære eller sikkerhetsrelaterte formål( http://en.wikipedia.org/wiki/Dual_use). Autentisering innebærer gjenkjennelse av individer basert på ett sett av data som på et tidligere tidspunkt er brukt til å registrere det enkelte individet i det biometriske systemet. Men informasjonssystemer kan også brukes til å identifisere personer basert på søk i flere databaser (Kent og Millet 2003). Identifisering vil i sterkere grad kunne bære preg av overvåkning. Sammenkopling av databaser for ulike formål, slik som visa og oppholdstillatelse, asyl og immigrasjon, kriminalregistre og nasjonale befolkningsregistre, er et uttalt mål både nasjonalt og internasjonalt (European Commission 2005). Slike tiltak finner ofte sted med henvisning til behovet for å bekjempe terrorisme og internasjonal kriminalitet. Dette har ført til at politi, sikkerhetstjeneste og sikkerhetsindustri trer inn på områder hvor de tradisjonelt ikke har hørt til. I denne sammenheng kan vi også fremheve et ytterligere kjennetegn ved teknologien, glimrende portrettert i filmen Gattaca, nemlig den økende evnen til å identifisere individer i en rekke sammenhenger.  Individer etterlater seg biometriske spor som fingeravtrykk, foto og DNA, i en rekke sammenhenger og på ulike steder. Hvor vi beveger oss og hva vi gjør blir i økende grad synlig etter hvert som teknologien forbedres og systemer gjøres interoperative.

 Det finnes, per dags dato, få eller ingen forsøk på å utvikle et helhetlig rammeverk for en grundig forståelse av biometriens etiske og sosial implikasjoner. Av slike grunner er den følgende redegjørelsen en liste av problematiseringer. Disse er i hovedsak valgt ut fordi de har blitt viet oppmerksomhet i offentlig ordskifte eller i akademisk litteratur. Det må understrekes at et slikt utvalg uvegerlig preges av kulturell kontekst. I tilfellet biometri har teknologien i Vesten blitt innskrevet i et forestillingsunivers preget av kampen mot terrorisme og den sikkerhetspolitiske situasjon etter 11. september 2001. Slik er det andre hensyn som gjør seg gjeldende enn for eksempel ved implementeringen av verdens største biometriske system i India. I den indiske konteksten er biometri koplet opp mot gjennomføringen av en nasjonal folketelling, og debatten synes å ha en mer positiv tone enn i Vesten: biometri kan bidra til å gi rettigheter, for eksempel til analfabeter og store mengder av uregistrerte personer. Borgere må synliggjøres for staten for at den skal kunne gi rettigheter og fordele goder. I Vesten, derimot, er debatten mye mer fokusert på biometri som et middel for å frata borgere rettigheter, slik som retten til personvern og fri bevegelse.

Personvern

De fleste forsøk på å regulere biometriske systemer relaterer seg til personvern (Woodward 2008). I Europeisk kontekst vil slike forsøk primært relatere seg til EUs personverndirektiv. I tillegg kommer ulike regelverk knyttet til datalagring, som ikke omtales nærmere i denne teksten. Personverndirektivet er fra 1995 og i skrivende stund i ferd med å oppdateres. En svakhet ved det gamle regelverket var at det bare gjaldt for prosessering av personlige data i kommersielle kontekster, hvilket utelot dataprosessering for sikkerhets- og kriminalsaker. Selv om direktivet er gammelt kan det sies å være et av de beste på verdensbasis, og synes å inneholde de nødvendige prinsippene for en god regulering også av biometriske data. I hovedsak sier direktivet at personlige data (biometriske eller andre) ikke skal prosesseres uten å godtgjøre at slik prosessering er eksplisitt gjort kjent for den det gjelder (Art. 7), har et klart definert formål (Art. 6b), og står i et rimelig ”proporsjonalt” forhold til dette formålet. Proporsjonalitet vil si at formålet med å innhente data er tilstrekkelig viktig til å godtgjøre lagring og bruk av personidentifiserbart materiale (Art. 6).

Selv om regelverket i utgangspunktet er godt og synes å gi klare retningslinjer kan man i praksis komme opp i problemer. Mange av disse problemene synes å være teknologisk og politisk indusert, men de virker tungt inn på muligheten for juridisk og etisk regulering. La oss ta som eksempel direktivets artikkel 7 a) som slår fast at personlige data bare kan prosesseres dersom data-subjektet har gitt sitt uttrykkelige samtykke til det. I 2010 begynte implementeringen av det nye europeiske Visa Information System (VIS), som blant annet innfører biometriske data i visa-prosedyren for alle medlemsland. I ”Community Code for Visa” (Regulation (EC) No 810/2009) gis reglene for innhenting av data, som skal lagres i en sentral database. Søker må samtykke til at innhentede data kan benyttes av berørte myndigheter. Dette innbefatter visa, immigrasjon og asyl samt, under gitte betingelser, såkalte ”designated authorities”. Med dette menes myndigheter som politi, sikkerhetstjeneste og Europol. Dersom man ikke avgir biometriske data får man ikke visa. Alternativet er derfor så alvorlig at det må betviles hvorvidt man stilles overfor et reelt valg. Videre er fullmakten vid og uspesifisert: hvem er ”designated authority”, og under hvilke betingelser gis disse adgang? Vil data bli utvekslet med amerikanske eller andre lands myndigheter?

Dette illustrerer et generelt problem med personvernet: det er en kontekstuelt betinget og ”subjektiv” verdi (Solove 2008). Det kan helt eller delvis settes til side ved å balanseres mot andre hensyn (som ”sikkerhet”). I store sosio-tekniske systemer med høy kompleksitet tar det tid før en bred forståelse av sosiale, etiske og juridiske implikasjoner sprer seg i samfunnet. Noen hevder derfor at den sterke vekten på ”sikkerhet” etter 11. september 2001, samt den raske innføringen av biometri i pass, reisedokumenter og visa, allerede har satt de fleste personvernhensyn til side (Bunyan 2009). Det er ofte ikke klart, verken for borgere, aktivister, forskere eller jurister, akkurat hvilke databaser som er eller kan komme til å bli koblet opp mot hverandre. Datanettverk og -maskiner synes å ha en iboende tendens til sammenkobling, og slike tendenser oppmuntres videre gjennom policy-begreper som ”økt interoperabilitet”, ”tilgjengelighets-prinsippet” (”principle of availability”) og økt samarbeid i kriminal- og terrorforebygging (Lodge 2006).

 I tillegg kommer utviklingen av nye biometriske teknologier som kan sette personvernbegrepet ut av spill idet de innfører nye former for overvåkning. Dette gjelder for eksempel forbedrete algoritmer for ansiktsgjenkjennelse i store folkemengder og programvare som skal identifisere mistenkelig adferd eller ”kriminelle intensjoner” i offentlige rom. Når individets biometriske data (og adferd) slik leses på avstand er det tvilsomt hvorvidt personvern angir adekvate retningslinjer og prinsipper.

Til tross for slike innsigelser gjenstår det at personvern utgjør det klart sterkeste alternativet for regulering av biometri. EUs direktiv oppdateres i disse dager (2011) med hensyn til utfordringer fra nye teknologier, og under Lisboa-traktaten har personvernet blitt styrket også i forhold til kriminal og sikkerhetstjenester. Men behovet er stort for internasjonal harmonisering av regelverk, og for å utvikle en bredere forståelse av personvern som favner nye utfordringer.

Ekskludering av utsatte grupper

Som allerede nevnt synes både biometri og personvernregulering å være fundamentalt rettet mot enkeltindivider. Imidlertid kan dette fokuset medføre at noen av de største farene med teknologien tapes av syne. Store sosio-tekniske systemer virker ikke primært på individnivå; de er rettet inn mot hele samfunn og befolkningsgrupper. For å ta det mest håndgripelige problemet først: ikke alle lar seg registrere like lett. Som for de fleste andre teknologier er standardisering viktig i biometriske systemer. Men det vil alltid være personer som ikke passer inn i standardformatet. Personer med handikap kan ha problemer med å komme til den biometriske leseren. Enkelte personer mangler kjennetegn eller hele deler av kroppen (for eksempel en håndverker som har fått fingeravtrykkene slipt bort gjennom arbeid) (Goldstein et al. 2008). Det synes også som om biometriske systemer har en tendens til lettere å lese kroppstrekk hos hvite (Coventry 2005). Dette er likevel synlige problemer med relativt enkle tekniske løsninger. Mer problematisk er det hvor vagt artikulerte eller skjulte fordommer mot bestemte grupper bygges inn i systemer for klassifisering av personer og blir en automatisert del av omverden. Her føyer biometri seg inn i en lang rekke praksiser og teknologier rettet inn mot kartlegging, monitorering og intervensjon i befolkninger, grupper og individer.

Det er liten tvil om at innrullering av individer i offentlige registre har spilt en viktig rolle i fremveksten av dagens velferdssamfunn. Folketrygd, skattesystemer og epidemiologiske registre baserer seg på standardisering og kvantifisering av befolkninger som basis for innhenting av informasjon, planlegging, intervensjon og fordeling av ressurser. Samtidig vet vi fra historien at slike systemer, særlig under totalitære regimer eller i krigs- og unntakstilstander, kan anvendes for ondsinnede formål. IBM utviklet sine første hullkortsystemer i samarbeid med Nazi-Tyskland som middel for mer effektiv kartlegging av jøder; kategoriseringssystemer utviklet av den tidligere kolonimakten Belgia ble brukt under massakren av Tutsier i Rwanda i 1994 (Lyon 2009). I Norge ble det såkalte ”J-stempelet” i jødiske pass brukt til identifisering og deportasjon av jøder til konsentrasjonsleire under 2. verdenskrig. Dette er ekstreme tilfeller, men de illustrerer også mer ”beskjedne” farer knyttet til kategorisering, stigmatisering og ekskludering av hele befolkningsgrupper. Mange større informasjonssystemer innenfor helse, forvaltning og sikkerhet virker primært på gruppenivå: individer gjenkjennes som regel som medlemmer av en eller annen kategori, det være seg som ”rettighetshaver” eller ”trussel mot offentlig ro og orden”.  Det er liten tvil om at arabere og muslimer i tiden etter 11. september har blitt utsatt for utstrakt bruk av ”profilering”, som i det tyske Rasterfahndung-programmet (LIBE Committee 2009). Videre vet man også at bruken av såkalte ”watchlists” har blitt mer utbredt i det samme tidsrommet. I den grad slike funksjoner bygges inn i biometriske systemer, for eksempel på flyplasser eller togstasjoner, øker faren for systematisk diskriminering av bestemte grupper. Personer som først har havnet på feil liste kan utsettes for diskriminering i årevis etter at de har blitt slettet fra det opprinnelige registeret. I tilfeller hvor informasjon er spredt over flere systemer og databaser er det vanskelig eller umulig å vite at alle spor er slettet.  I denne sammenheng bør også nevnes et nytt tilskudd på den biometriske stammen: såkalt ”myk biometri” (”soft biometrics”), som benytter seg av ikke-unike trekk som høyde, etnisitet og kjønn for bedre å identifisere individer. Samtidig som teknologiutviklere og myndigheter ser dette som et felt med stort vekstpotensial (Ross et al. 2008) er man her over i et etisk og politisk landskap som kan vise seg å være i direkte motstrid med grunnleggende menneskerettigheter (van der Ploeg 2010).

Tillit

Tillit er uunnværlig for ethvert samfunn. Uten forventninger om at styresmakter, medborgere og sosio-tekniske systemer oppfører seg noenlunde pålitelig og forutsigbart, vil viktige sosiale funksjoner forvitre (Grimen 2009). Store biometriske systemer, for eksempel brukt til regulering av mobilitet i Schengen, forflytter og forandrer tillitsrelasjoner. For det første vil disse systemene kunne virke inn på forholdet mellom borger og stat. Aktivister som Statewatch har lenge hevdet at biometriske systemer og andre sikkerhetsteknologier er med på å forskyve maktbalansen i vestlige samfunn i retning av mer autoritære strukturer. Biometri, utstrakt bruk av overvåknings-kameraer, passasjernavns-lister (PNR), data-lagring og data-minering (dvs. systematiske søk etter mønstre i store informasjonssystemer eller databaser) øker statens evne til å ”se” borgerne, hvor de er og hva de gjør. Mange slike teknologier har blitt innført på måter som ikke er transparente, og ofte gjennom internasjonale organisasjoner utenfor parlamentarisk kontroll. Slike trekk synes å signalisere en holdning hvor borgere bes om å ha tillit til at staten handler i deres beste interesse, men hvor mekanismer for folkelig, juridisk og parlamentarisk kontroll ikke implementeres tilsvarende. På den annen side sett synes oppmerksomheten omkring personvern og den ”digitale tsunamien” som vi opplever å vekke økende bekymring, ikke minst i ulike rettsinstanser. Generelt synes europeiske land å innta en mer ansvarlig holdning overfor personvern enn den som gjør seg gjeldende i USA. Strid over passasjernavn-lister, datalagringsdirektiv og reaksjoner fra en rekke land på Googles innsamling av opplysninger fra usikrede datanettverk er eksempler på dette.

Tillitsrelasjoner forflyttes også på andre måter. Gjennom interoperative biometriske informasjonssystemer overføres beslutningsmyndighet til myndigheter i andre land, for eksempel gjennom muligheten til å utstede en europeisk arrestordre. Beslutninger fattet innenfor ett lands jurisdiksjon vil måtte håndheves av myndigheter i andre land og jurisdiksjoner. Her venter store utfordringer knyttet til samordning av praksis idet skjønn, operativ kultur og koder for myndighetsutøvelse varierer fra land til land. Tilsvarende problemer reises ved utsteding av visa eller avslag på asylsøknad, som gjennom nye systemer gjøres gjeldende for alle EUs medlemsland.

Teknisk kompleksitet og usikkerhet

Dette peker hen mot et siste avgjørende spørsmål. Med den raske utbredelsen av biometriske systemer, kan vi stole på at teknologien virker som forutsatt? Store biometriske systemer implementeres nå på en rekke områder, ofte for hele nasjonalstater eller for alle Schengen-land (Geyer 2008). Samtidig er det et faktum at det ikke foreligger tester som viser at systemene vil fungere på en slik skala. Den eneste måten å teste på synes å være å innføre systemene i stor skala for deretter å evaluere konsekvensene. Vi vet at biometriske systemer uvegerlig gjør feil, gjenkjennelse er basert på statistiske assosiasjoner og ikke absolutt identitet. Oppskalering og bruk i vanskelig kontrollerbare omgivelser (offentlige rom) øker antall mulige feilkilder dramatisk.  For eksempel, et biometrisk system som var utprøvd på Manchester flyplass viste seg å slippe gjennom personer med bare 30 % likhet til sitt eget passbilde (Gardham 2009).

Et eksempel

I 2009 innførte det nederlandske parlamentet biometriske pass ved lov (Hudig 2009). Det endelige forslaget gikk imidlertid lengre enn EU-regulativ 2252/2004, som bestemmer at medlemsland skal innføre pass med RFID-brikke for lagring av fingeravtrykk og ansiktsfoto (Norge er omfattet gjennom Schengen-avtalen). Det nederlandske forslaget innførte en sentralisert database som skulle være koblet opp mot kriminalregistre og brukes i kampen mot terrorisme. Det har vist seg svært vanskelig å melde seg ut av den biometriske databasen: den 24 år gamle jus-studenten Aaron Boudewijn gikk til sak mot de nederlandske myndighetene etter å ha bli nektet pass. Grunnen var at han ikke ville la seg registrere i databasen. En rekke andre viktige rettigheter var også knyttet opp mot viljen til å la seg registrere, som muligheten til å stemme ved valg. Biometriske pass har blitt en kampsak mellom personvern-organisasjoner, rettsvesen og nederlandske myndigheter. I Norge har det, så vidt vites, ikke vært reist tilsvarende debatt. Et søk på politiets informasjonssider for pass gir nedslående resultater: sikkerhets- og effektivitetshensyn er fremtredende mens personvern, informasjon om biometriske systemer og samtykke ikke er nevnt. Hvorfor er dette problematisk? Mens biometriske data innføres i en rekke dokumenter er arkitekturen for systemer som VIS og Schengen Information System (SIS II) fortsatt under utarbeidelse. Biometriske lesere og systemer vil gradvis knyttes til reisedokumenter og identifikasjonspapirer med klare implikasjoner for personvern, rettferdighet og bevegelsesfrihet. Slik sett synes man å videreføre en tendens som er kjent fra andre områder hvor store databaser implementeres, som biobanker og helseregistre. Tendensen går fra bruk av informert samtykke med mulighet til å melde seg ut (biobanker), over forutsatt samtykke med mulighet til utmelding (helseregistre), til manglende mulighet for utmelding kombinert med mangel på samtykke (biometrisk pass). En slik utvikling er verdt en bred offentlig debatt.

Oppsummering: forskningsetiske utfordringer

Som sagt innledningsvis: systematiske oversikter over biometriens samfunnsmessige og etiske implikasjoner er fortsatt mangelvare. Ett problem her er at biometri ikke har et fastlagt anvendelsesområde, men snarere er en generisk teknologi som muliggjør en rekke teknologiske anvendelser og praksiser. Den forutgående listen av “problematiseringer” er ikke utfyllende men baserer seg på et utvalg (Gjort ved bruk av både etiske og sosiologiske metoder i det EU-finansierte prosjektet Technolife se : www.technolife.no).. For å oppsummere kan vi skille mellom “snevre” og “vide” etiske problemer: de “snevre” problemene har en mer eller mindre teknisk definerbar løsning (særlig gjennom juss og etikk, men også gjennom ny teknologi som implementeres for å styrke personvernet), mens de “vide” problemene er vanskeligere å definere, både vitenskapelig, etisk og politisk. Jeg understreker at inndelingen ikke innebærer noen sterk normativ gradering fra forfatterens side: både de snevre og vide problemstillingene er viktige og bør i størst mulig grad utfylle hverandre.

“Snevre problemer”: viktige spørsmål knytter seg til forståelse, definering og videreutvikling av etiske og juridiske prinsipper (samtykke, personvern, grunnleggende rettigheter) i nye (digitale og sosiale) kontekster. Det er et stort behov for utvidet forståelse av personvern-begrepet, ikke minst i møte med politi- og sikkerhetstjensters anvendelse av ny teknologi. Når det gjelder det informerte samtykket synes behovet å være enda større: det synes tvilsomt om begrepet vil kunne gis brukbare definisjoner i møtet med store informasjonssystemer. Ofte settes både personvern og samtykke til side under henvisning til kollektive goder som ”sikkerhet” og ”samfunnsmessig nytte”. Det er behov for nye former for kollektivt samtykke som kan balansere slike argumenter og prinsipper.

 ”Vide problemer”: ut fra både sosiologiske og etiske betraktninger er det viktig å få en bredere forståelse av biometriske informasjonssystemers slik disse virker inn på sosiale relasjoner. Særlig viktig er det å være oppmerksom på potensialet for ekskludering av svake og utsatte grupper. Viktig er også en bredere forståelse av deres innvirkning på grunnleggende makt- og tillits-relasjoner, og hvordan disse forskyves gjennom biometriske systemer. Ut fra vitenskapsteoretiske og epistemologiske perspektiver er det viktig med en kartlegging av nye teknologier som skal kartlegge og forstå menneskelig identitet, men også (i økende grad) handling og intensjon. Det er en stor fare for at vitenskapelig og teknisk sikkerhet overvurderes på bekostning av mer realistiske modeller for menneskelig og teknologisk kapasitet og handleevne (”agency”), særlig der hvor det politiske presset er stort.

 Til sist vil jeg hevde at alle de ovenfor nevnte problemstillingene peker hen mot et mer overordnet politisk og demokratisk nivå: hvordan øke oppmerksomheten og debatten omkring informasjonssystemer med klar dual use-problematikk ? Digitale teknologier generelt har stort potensiale for å forbedre en rekke sosiale, teknologiske og politiske forhold. Men de har også en tendens til å gli nesten umerkelig inn i hverdagslige relasjoner, ting og handlinger, uten at vi riktig legger merke til hvordan grunnleggende institusjoner og prinsipper utfordres og forandres.

Litteratur

Referanser

Bunyan, T. The Shape of Things to Come. The EU Future Group, Spokesman Books, Nottingham, 2009

Coventry, L. Usable Biometrics, in: L.F. Cranor, S. Garfinkel (Eds.), Security and usability: designing secure systems that people can use, O' Reilly Media, Sebastopol, CA, 2005.

European Commission, Commission Communication of 24 November 2005 on improved effectiveness, enhanced interoperability and synergies among European databases in the area of Justice and Home Affairs [COM(2005) 597 final, Brussels, 2005.

Gardham, D. Airport face scanners 'cannot tell the difference between Osama bin Laden and Winona Ryder', in:  The Telegraph, 5 April 2009.

Geyer, F. Taking Stock: Databases and Systems of Information Exchange in the Area of Freedom, Security and Justice, in:  CEPS Challenge Liberty & Security, Research Paper No. 9, CEPS Challenge Liberty & Security, Research Paper No. 9, Brüssels, 2008.

Goldstein, J., R. Angeletti, M. Holzbach, D. Konrad, and M. Snijder. Large-scale Biometrics Deployment in Europe: Identifying Challenges and Threats, in: J.R.C., European Commission, Sevilla, 2008.

Grimen, H. Hva er Tillit?, Universitetsforlaget, Oslo, 2009.

Jain, A., and P. Flynn, Introduction to Biometrics, in: A. Jain, P. Flynn (Eds.), Handbook of Biometrics, Springer, New York, 2008.

Kent, S.T. and L.I. Millett (Eds.). Committee on Authentication Technologies and Their Privacy Implications, Who Goes There? Authentication Through the Lens of Privacy. National Research Council, Washington DC, 2003.

LIBE Committee, European Parliament. REPORT with a proposal for a European Parliament recommendation to the Council on the problem of profiling, notably on the basis of ethnicity and race, in counterterrorism, law enforcement, immigration, customs and border control (2008/2020(INI), Brussels, 2009.

Lodge, J. Ethical EU eJustice: elusive or illusionary?, Info, Comm & Ethics in Society, 3 (2006) 131-144.

Lyon, D. Identifying Citizens. ID Cards as Surveillance, Polity Press, Cambridge, UK, 2009.

Regulation (EC) No 810/2009 of the European Parliament and of the Council of 13 July 2009 establishing a Community Code on Visas (Visa Code).

Ross, A. K. Nandakumar, A. Jain, Introduction to multibiometrics, in: A. Jain, P. Flynn, A.A. Ross (Eds.), Handbook of Biometrics, Springer, New York, 2008.

Solove, D.J. Understanding Privacy, Harvard University Press, Boston, 2008.

van der Ploeg, I. Written on the Body: Biometrics and Identity, Computers and Society, 29 (1999) 37-44.

van der Ploeg, I. Security in the Danger Zone: Normative Issues of Next Generation Biometrics, in: E. Mordini, T. Tzovaras (Eds.), Second Generation Biometrics, Springer, 2010.

Woodward, J.D. The Law and the Use of Biometrics, in: A. Jain, P. Flynn, A.A. Ross (Eds.), Handbook of Biometrics, Springer, New York, 2008.

Anbefalt videre lesning

Lodge, J. (Ed.) Are you who you say you are? the EU and Biometric Borders. Wolf Legal Publishers, Nijmegen, 2007.

Lyon, D. Identifying Citizens. ID Cards as Surveillance, Polity Press, Cambridge, UK, 2009.

Mordini, E., Petrini, C. (Eds.) Special Issue on Social and ethical implications of biometric identification technologies. Ann Ist Super Sanita. Vol 43 No 1, 2007.

Mordini, E., T. Tzovaras (Eds.), Second Generation Biometrics, Springer, 2010.

Nelson, L. S. America Identified. Biometric Technology and Society. MIT Press, Cambridge MA, 2011.