Vil vi huskes for at beskytte vores børn eller for at starte århundredets masseovervågning?
Danmarks EU-formandskab vil opsnuse pædofilimateriale ved at stille en politihund i alles entré.
Dette er et debatindlæg: Indlægget er udtryk for skribentens holdning. Alle holdninger, som kan udtrykkes inden for straffelovens og presseetikkens rammer, er velkomne, og du kan også sende os din mening her.
Forestil dig, at myndighederne stiller en politihund i din entré. Ikke for at snuse til mistænkelige pakker, men for at lede efter billeder af nøgne børn på din telefon. Hver gang du sender eller modtager et billede af dine børn i poolen til bedsteforældrene, snuser den, registrerer – og bider.
Den logik er præcis, hvad dansk EU-formandskab vil vedtage dette efterår. Med det såkaldte chatkontrol-forslag (CSAR) flytter en digital politihund ind i vores private digitale hjem og snuser til alle billeder og videoer ved hjælp af nye AI-værktøjer.
Lad os slå fast: Formålet er ædelt og vigtigt. Overgreb mod børn er afskyeligt, og bekæmpelsen skal styrkes. Men midlet her er hverken proportionalt eller sikkert. Det koster enorme summer, og samtidig udhuler det datasikkerhed og suverænitet.
I en kronik i Jyllands-Posten den 1. september 2025 argumenterer Johanne Schmidt-Nielsen m.fl., at »det danske kompromis« ikke er masseovervågning, fordi påbud kun gives til »højrisikotjenester« og er »midlertidige«, og fordi man ikke bryder selve krypteringen. Men teknisk kræves der installation af samme værktøj på alle telefoner: client-side scanning. Her skal en særlig app have adgang til indholdet.
Som fagfolk er vi nødt til at advare kraftigt imod det ”kompromis”. For når først man laver en sidedør før kryptering, så findes den ikke kun for “de gode” – den findes også for hackere, fremmede efterretningstjenester og organiseret kriminalitet.
Fortalerne hævder, at scanning “kun” finder allerede kendt materiale via unikke ”fingeraftryk” (hashes) på kendte billeder. Men det ændrer ikke ved, at ALT indhold nu skal kontrolleres. Denne infrastruktur er selve kernen i masseovervågning – og når den først er etableret, inviterer den til at kompromittere andre demokratisk sikrede rettigheder.
Endnu værre bliver det, når vi ser på detektionen af billeder via AI. Forslaget åbner for, at man scanner for ukendt materiale, og det kræver, at man bruger AI-modeller. Og ingen metode er fejlfri. Selv hvis systemet er 99 pct. korrekt, vil det slet ikke skalere. Alene på WhatsApp vil der blive udpeget ca. 70 mio. billeder HVER DAG, der skal tjekkes af mennesker. Tænk, hvad det summerer til over alle beskedtjenester!
Samtidig får staten hjemmel til at lade en maskinel politihund gennemsøge privatlivet og sende borgernes mest intime øjeblikke til vurdering. Det lægger en iskold hånd på ytrings- og informationsfriheden.
For mennesker ændrer adfærd, når de ved, at en politihund ånder dem i nakken. Også de kriminelle. De vil uden tvivl flytte til kanaler uden for rækkevidde eller bruge andre krypteringsmuligheder. Og så er vi lige vidt.
Regningen for et paneuropæisk scannesystem i milliardklassen lander hos lovlydige borgere og virksomheder, mens gevinsten er marginal. Ironisk nok står amerikanske udbydere klar til at byde på udvikling af de dyre værktøjer, imens EU taler om digital selvstændighed. Det vil sige, at vi er på vej til at afgive endnu mere digital selvstændighed – og så ovenikøbet med vores mest private billeder som indsats.
Der findes bedre veje: Styrk specialiseret politi- og efterforskning, forbedr analyserne af metadata om nettrafikken. Øg ressourcerne til de organisationer, der allerede i dag identificerer de kriminelle uden at gennemsøge alle borgeres beskeder. Med andre ord: Fokusér på nødvendige, proportionale og målrettede tiltag i stedet for generel masseovervågning.
Allerede den 12. september træffer medlemslandene afgørende valg om, hvilken retning de vil gå. Spørgsmålet er så: Vil vi i Danmark huskes for at beskytte vores børn – eller for at have opfundet århundredets masseovervågning?