Dual use – et udenrigs- og forskningspolitisk dilemma

juli 2, 2020

Af Lise Bitsch, seniorprojektleder

I de sidste par uger har Politiken beskrevet, hvordan DTU og Aalborg universitet arbejder sammen med kinesiske universitetsforskere, og hvordan Statens og Kommunernes Indkøbsservice (SKI) tilbyder overvågningsudstyr fra firmaer, der ifølge FN, har ondt i menneskerettighederne.

I artiklerne bliver det også fortalt, at SKI er gået i gang med at undersøge mulighederne for at fjerne produkterne fra deres udbudskataloger. De danske leverandører af produkterne har enten fjernet de produkter, de er ansvarlige for at levere, igangsat en dialog om at få produkterne fjernet, eller sat sig for at følge den igangværende diskussion om firmaerne. Universiteterne derimod mener grundlæggende ikke, de har gjort noget forkert, og henviser til problematikkerne som et udenrigspolitisk spørgsmål.

Det handler også om forskningspolitik

Artiklerne illustrerer tydeligt den komplicerede teknologiske og politiske virkelighed både universiteterne, forskerne, statslige myndigheder og politikerne må navigere i. Hvordan kan vi beskytte retten til fri forskning, og et globalt handelsmarked? Hvordan kan vi samtidig navigere ansvarligt i en højteknologisk verden?  Smarte informationssystemer, ansigtsgenkendelse, udvidede muligheder for overvågning og sporing af individer ved at følge deres digitale fodspor bliver mere og mere avancerede. De giver os muligheder for at bidrage positivt til fx opsporing af smittekæder i forbindelse med pandemier, men de kan også misbruges. Det er det djævelske ved dual use problematikker. De kan ikke reduceres til udenrigspolitik, men er netop også forsknings- og udviklingspolitik.

Sådan tager vi hånd om dual use

Teknologirådet har arbejdet systematisk med problematikken i forhold til de nye teknologiske muligheder som forskning i den menneskelige hjerne åbner for. Sammen med et hold af internationale forskere, og med inddragelse og input fra mange eksperter og mere end 2000 europæiske borgere, kom vi med et bud på, hvordan man kan ansvarliggøre forskning med et potentiale for at blive brugt i militære, politiske, efterretningsmæssige og sikkerhedsmæssige sammenhænge.

Ikke forbud men etisk træning

I vores bidrag gør vi op med tanken om, at man kan forbyde forskning med et dual use potentiale. Vi mener i stedet, at man bør udvikle processer for at evaluere hvilke ’dual uses’ der er problematiske, fx ud fra et menneskerettighedssynspunkt. Derefter skal man arbejde målrettet med at undgå at støtte sådanne udviklinger. Hvordan gør man så det? Vi udviklede femten anbefalinger. Tre af disse er relevante for den danske kontekst skitseret i Politikens artikelserie. Lettere omskrevet til den nuværende kontekst er disse anbefalinger at:

  1. Universiteter og højere læreanstalter udvikler professionelle træningsprogrammer for deres forskere, ingeniører og studerende, sådan at disse kan genkende og forstå de sociale og etiske og dual use problematikker, der knytter sig til deres forskning[1]
  2. Universiteter og højere læreanstalter udvikler egne politikker for, hvordan de håndterer forskning og samarbejder indenfor områder, hvor der er anfægtelige dual use problematikker[2]
  3. Industrien og virksomheder, der arbejder med blandt andet kunstig intelligens, maskinlæring og lignende teknologier etablerer interne etiske rådgivnings- og kontrolorganer, som led i at udvikle gennemsigtige og etiske beslutnings- og ledelsessystemer. De skal samtidig udvikle processer for at højne kapaciteten hos deres forskere og andre ansatte til at genkende og forstå de sociale og etiske og dual use problematikker, der knytter sig til deres forskning eller forretningsområder[3]

 

Du kan læse hele rapporten, som Teknologirådet her været en del af at skrive, med anbefalinger her: https://sos-ch-dk-2.exo.io/public-website-production/filer_public/77/61/7761fdcd-b0a0-40a2-a6bd-904d68d52b87/opinion_dual_use_hbp_ethicssociety.pdf

 

[1] Indenfor hjerneforskning er denne anbefaling støttet af fx UK’s Royal Society: Royal Society (2012). Neuroscience, conflict and security: Brain waves module 3. London: The Royal Society

[2]Denne anbefaling lægger sig op af flere rapporter om dual use problematikker, fx Chameau, J. L., Ballhaus, W. F., & Lin, H. S. (2014). Emerging and readily available technologies and national security: A framework for addressing ethical, legal, and societal issues. DC: National Academy’s Press

[3] Ibid. Denne anbefaling støtter op om forslag der kommer fra civile forskere (fodnote 2), som allerede har forsøgt at gøre opmærksomme på de sikkerhedsmæssige problematikker der knytter sig til deres forskning. Andre internationale interesse organisationer for industry og ingeniør videnskab har også udgivet retningslinjer og forslag, fx IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems: as The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems: https://standards.ieee.org/develop/indconn/ec/autonomous_systems.html, and the Future of Life Institute: https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/.