Foto: Stockfoto af datastrøm og Paris i forgrunden (Shutterstock)
Det var arrangørernes forventning, at 15,3 millioner mennesker ville flokkes om den franske hovedstad i forbindelse med dette års OL i Paris. Og det på et tidspunkt, hvor sikkerhedssituationen i verden er ustabil, og hvor risikoen for terrorisme på det europæiske kontinent er blevet opjusteret flere steder efter krigen mellem Hamas og Israel sidste efterår. Det bekræftede de tyske myndigheder under sommerens EM i fodbold, og det er da også noget, man har forberedt sig på i den franske hovedstad, hvor man blandt andet har sat 155 mennesker i forbyggende husarrest under legene, lavet baggrundstjek på op mod én million mennesker involveret i legene og opsat den største militærbase siden Anden Verdenskrig. 45.000 politifolk har været udstationeret i gaderne, og under åbningsceremonien havde de franske myndigheder sat en såkaldt ’no-fly’-zone i en radius 93 kilometer og lukket det parisiske luftrum i seks timer.
I dataetiske og regulatoriske kredse rejser det selvfølgelig også spørgsmålet – hvordan griber man sikkerhedssituationen an i forhold til overvågning og behandling af data, når det kommer til at beskytte de mange turister, atleter og gæster mod potentielle terrorangreb? Og hvad gør man, når man samtidig i EU har noget, der hedder GDPR og et netop vedtaget AI Act, der sætter begrænsninger for, hvor meget man må overvåge civilbefolkningen ved hjælp af digitale systemer og kunstig intelligens?
Man laver da bare en ny lov! Det har i hvert fald været Frankrigs svar på de spørgsmål, og som har været en integreret del af forberedelserne til legene med den såkaldte Olympic and Paralympic Games Law, som blev stemt igennem det franske parlament i 2023.
Loven, der indeholder en solnedgangsklausul til udgangen af marts 2025, har til formål at regulere den brug af overvågning, kunstig intelligens og databehandling, som har været taget i brug under dette års lege. Loven er et eksperiment, som ifølge den franske regering har været nødvendig for at kunne forebygge potentielle sikkerhedsrisici. Og selvom loven ifølge den franske forfatningsdomstol er compliant med både GDPR og den netop vedtagede EU AI Act, så har den mødt modstand fra flere sider.
Men hvad går den her lov ud på? Hvori ligger faldgruberne og bekymringerne? Og hvad er perspektiverne i lovens anvendelse på længere sigt?
Indholdet og kritikken
Loven er vedtaget ud fra ønsket om at skabe de bedste muligheder for myndighederne, når det kommer til forebyggelse af potentielle angreb og/eller katastrofer ved OL. Den franske indenrigsminister Gérald Darmanin erkendte, da loven trådte i kraft, at ”exceptionelle omstændigheder kalder på exceptionelle midler”, og disse midler er skrevet ned i lovens artikel 10, som omhandler, hvordan man implementerer algoritmisk overvågning under OL
Loven giver blandt andet mulighed for at benytte algoritmisk videoovervågning og indsamle videomateriale fra overvågningskameraer overalt i bybilledet – fra offentlig transport og kameraer på fly til kameraer ved kulturelle begivenheder og åbne pladser. Af loven fremgår det dog eksplicit, at der ikke må behandles nogen form for biometrisk data og ansigtsgenkendelse, og overvågningen kun må ske med menneskelig monitorering. Der skal med andre ord sidde rigtige mennesker bagved systemerne og aktivt tage stilling til, hvornår og hvor overvågningen giver mening, ligesom også menneskelig rapportering i forhold til den endelige brug er et krav.
Loven har dog mødt en del modstand for forskellige sider i Frankrig, der har været bekymret for, hvordan man bibeholder borgernes privatliv og autonomi i en hovedstad, der udover de 15 millioner forventede turister i forvejen bor 11 millioner og, hvor alle potentielt er monitoreret 24 timer i døgnet i det offentlige rum. Blandt andet gik 38 interesseorganisationer sammen i marts 2023 om et brev til regeringen, hvor de udtrykte deres bekymring for den nye lov. Her argumenterede de for at lovens foranstaltninger "udgør uacceptable risici for grundlæggende rettigheder", og at det er "et skridt i retning af normalisering af ekstraordinære overvågningsbeføjelser." Også Amnesty Internationals Advocacy Advisor on AI Regulation Mher Hakobyan, udtrykte i et indlæg på Amnestys hjemmeside, at loven "risikerer permanent at forvandle Frankrig til en dystopisk overvågningsstat og tillade storstilede krænkelser af menneskerettighederne andre steder i området”.
Omdrejningspunktet for kritikken har primært været den såkaldte algoritmiske videoovervågning, som under legene er blevet implementeret. En overvågning, som giver en alarm, hvis der er forskellige forhold til stede. Forhold, som i forhold til den franske OL-lov er defineret via dekret og udgør følgende:
- Tilstedeværelse af forladte genstande
- Tilstedeværelse eller brug af våben
- Hvis en person eller et køretøj følger den forkerte færdselsretning
- Krydsning eller tilstedeværelse af en person eller et køretøj i forbudte eller følsomme områder
- Tilstedeværelse af en person på jorden efter et fald
- Usædvanlig folkemængdebevægelse
- Overdreven folkemængdetæthed
- Udbrud af brand
På baggrund af et stort datasæt af billeder har man trænet algoritmen til at kunne identificere situationer, der opfylder de ovenstående forhold.
Men det en grundløs bekymring, mener regeringen i Frankrig, ligesom også den franske forfatningsdomstol har slået fast, at loven er proportionel med de risici, som er forbundet med afholdelsen af et event som OL på fransk jord. Ifølge Lawfare.com udtalte formand for lovkommissionen Sacha Houlié, at "hvis vi havde adgang til algoritmisk behandling, ville vi have genkendt den unormale adfærd, hvilket ville have forhindret det angreb,” med henvisning til terrorangrebet i Nice i 2016.
Perspektiverne
Legene illustrerer et juridisk gnidningspunkt – forholdet mellem fællesskabets bedste på den ene side og individets grundlæggende frihedsrettigheder på den anden. Som de 38 organisationer skriver i deres bekymringsbrev, så er det utænkeligt at forestille sig, at man med algoritmisk overvågning ikke også overvåger og behandler data om helt almindelige borgere, der opholder sig på lovlig og fri fod. Ligesom også det fremførte argument, at det I realiteten er en svær opgave ikke at indsamle biometrisk data, når man samtidig monitorerer usædvanlig adfærd i det offentlige rum.
Derudover har bekymringen også været, at den franske OL-lov er på kant med det netop ikrafttrådte AI Act. Her kigger man nemlig på graden af risici forbundet med de AI-systemer, som implementeres. I den kategori, som defineres som højrisiko, findes AI-systemer som på negativ vis påvirker individets sikkerhed og fundamentale rettigheder. Dog med den krølle på halen, at brugen af disse systemer er undtaget for forbud, hvis de bruges I relation til opretholdelse af national sikkerhed. Og da begrebet national sikkerhed ikke er defineret direkte i AI Act, er det op til de enkelte lande definere deres egen fortolkning af begrebet, hvorfor den franske OL-lov vurderes at være inden for skiven af AI Act, skriver Lawfare.com. Ligesom også loven er vedtaget før AI Act trådte i kraft.
Den helt store bekymring er dog fremtidsperspektiverne. Ifølge Lawfare skriver Algorithm Watch , at kritikere frygter, at loven udstiller de franske borgere som forsøgskaniner, der skal tage temperaturen på private aktørers fremtidige muligheder i udviklingen af løsninger til det offentlige. Den franske regering har dog slået fast, at loven er midlertidig, og der står også nedfældet i loven, at regeringen ikke senere end 31. December 2024 skal offentliggøre en rapport rettet til parlamentet, der åbent evaluere de erfaringer man har gjort sig i forbindelse med implementeringen og anvendelsen af den nye lov.