Offentlige myndigheders brug af generativ AI skal have dataetiske rammer
Dataetisk Råd offentliggør i dag otte anbefalinger til, hvordan myndigheder og politikere kan sætte rammer for brugen af AI. Det vil give borgere og medarbejdere tryghed for, at teknologien ikke udsætter dem for alvorlige risici.
Dette er en kronik skrevet af en ekstern kronikør. Jyllands-Posten skelner skarpt mellem journalistik og meningsstof. Vil du skrive en kronik? Læs hvordan her.
I august 2019 fløj Roberto Mata med det colombianske flyselskab Avianca fra El Salvador til New York, USA. Under turen blev hans knæ ramt af personalets kabinevogn, og Mata sagsøgte flyselskabet for de skader, han hævdede at have fået.
I begyndelsen af 2023 havde Matas advokat, Stephen Schwartz, brug for at finde relevante juridiske præcedenser til sagen. Schwartz’ børn anbefalede ham at bruge et smart, nyt værktøj. Det hed ChatGPT.
ChatGPT virkede imponerende. Schwartz havde ikke selv haft held med at finde relevante sager, men på en simpel forespørgsel fandt den kunstige intelligens straks hele seks relevante sager. Schwartz delte sagerne med domstolen som grundlag for et indlæg i Matas klagesag.
Tre måneder senere idømte dommeren Schwartz en bøde på 5.000 dollars og afviste Matas klage. De seks sager viste sig at være frit opfundet. ChatGPT havde ”hallucineret” dem.
ChatGPT er det nok mest kendte eksempel på den form for kunstig intelligens, som kaldes generativ AI. Generativ AI er kendetegnet ved, at den kan skabe originalt indhold som tekster og billeder.
I dag ved mange nok godt, at kunstig intelligens kan hallucinere. De store udviklere har godt nok arbejdet ihærdigt på at forbedre teknologien, så kunstig intelligens ikke så let hallucinerer. Men der findes ikke en metode til definitivt at forhindre, at generativ AI begår fejl. Ofte virker hallucinationer overbevisende – de er detaljerede, velskrevne og anvender fagudtryk – men vi har hurtigt vænnet os til, at man ikke kan stole blindt på den information, man får fra en kunstig intelligens.
Grundlæggende skyldes risikoen for fejl, at generativ AI ikke forstår, hvad sprog betyder. Kernen i mange former for generativ AI er en såkaldt ”stor sprogmodel”.
De store sprogmodeller er imponerende bedrifter, som gør kunstig intelligens i stand til at arbejde med menneskeligt sprog på måder, der indtil for få år siden var science fiction.
Men de er kun en statistisk model for, hvordan sproglige brudstykker hænger meningsfuldt sammen; »stokastiske papegøjer« har kritikere kaldt dem, der med lidt tilfældig variation gentager mønstre i de tekster, de er trænet på. Derfor kan generativ AI ikke skelne mellem, hvad er der sandt, og hvad der er falsk.
Risikoen for fejl udgør en dataetisk udfordring, fordi fejl kan have konsekvenser. I nogle tilfælde er konsekvenserne trivielle. Men når offentlige myndigheder anvender kunstig intelligens, er det ofte vigtigt, om den tekst, en generativ AI skaber, er korrekt og fyldestgørende, fordi offentlige myndigheder træffer beslutninger, som berører både den enkelte borgers liv og vores fælles samfund.
I Danmark bryster vi os med god grund af, at vi har en af verdens mest digitaliserede offentlige sektorer. Generativ AI er et nyt værktøj, men mange offentlige myndigheder har allerede grebet teknologien og er i fuld gang med at udforske, hvordan den kan hjælpe med at forbedre effektivitet og kvalitet i myndighedernes arbejde.
Myndigheder bruger for eksempel generativ AI til korrekturlæsning og til at generere idéer – som en slags digital brainstorm-partner.
Den kunstige intelligens kan også skrive udkast, f.eks. til en pressemeddelelse eller en rubrik på en hjemmeside. Ofte sparer det medarbejdere tid og fører til bedre resultater.
Offentlige myndigheder bruger også generativ AI til at lave chatbots, som kan hjælpe med at søge information. De bruges af borgere, som kan spørge om alt fra åbningstider til processen for sagsbehandling. Men myndigheder laver også chatbots til deres egne medarbejdere, som ofte dagligt skal navigere i et komplekst system af regler og processer.
Endelig hjælper generativ AI med at lave resuméer, f.eks. når en medarbejder skal skrive referat af et møde eller gerne vil have et overblik over de centrale pointer i en længere tekst.
Tilsammen giver alle disse muligheder teknologien et enormt potentiale. Men fordi teknologien kan anvendes på så mange forskellige måder, bliver det så meget desto vigtigere at sikre, at den ikke laver fejl, som har negative konsekvenser for borgere, medarbejdere eller det bredere samfund.
Der findes mange tekniske metoder til at begrænse generativ AI’s risiko for fejl. Men risikostyring handler i lige så høj grad om, hvordan den enkelte myndighed implementerer teknologien.
Dataetisk Råd offentliggør i dag otte anbefalinger til, hvordan myndigheder og politikere kan sætte dataetiske rammer for brugen af generativ AI. De rammer vil give borgere og medarbejdere tryghed for, at teknologien ikke udsætter dem for alvorlige risici.
Men de vil også gøre det nemmere for myndigheder at arbejde med teknologien. En væsentlig udfordring i dag er, at det ofte er uklart, hvordan myndigheder bør tackle de dataetiske udfordringer. Den utryghed er ikke befordrende for den fortsatte digitale udvikling af den offentlige sektor.
Nogle rammer kan den enkelte myndighed sætte. Myndigheder bør inddrage interessenter i udvikling og implementering af den nye teknologi, så berørte borgere får lejlighed til at hjælpe med at identificere og håndtere risici. De bør også oplyse om, hvordan de bruger menneskelig kvalitetssikring og sikre, at mennesker, som skal opdage og rette fejl, har mulighed for at gøre det effektivt.
Og de bør udvikle forholdsregler til at håndtere fejl, før de opstår, så systemet er på plads, den dag generativ AI kører af sporet, f.eks. ved at sikre, at man kan dokumentere, informere om og korrigere fejl.
Sidst, men ikke mindst bør myndigheder kritisk vurdere hvert enkelt system ved at kigge på, både hvor mange fejl systemet laver, hvilke konsekvenser disse fejl kan have, og om risikoen som resultat af disse faktorer er for høj.
Men der er også rammer, som bør fastsættes på politisk niveau. Både fordi det vil være spild af tid at lade hundredvis af myndigheder udvikle de samme løsninger hver for sig, og fordi der er udfordringer, som det kan være svært for den enkelte myndighed at løse.
En af de ting, som gør det svært at samarbejde om og evaluere kunstig intelligens i den offentlige sektor i dag, er, at der ikke findes et samlet overblik over, hvordan offentlige myndigheder anvender teknologien. Et sådant overblik er også en forudsætning for, at vi som samfund kan have en oplyst demokratisk debat om, hvordan vi gerne vil bruge teknologien.
Derfor mener Dataetisk Råd, at Danmark bør oprette et nationalt register for generativ AI systemer ved offentlige myndigheder.
Endelig anbefaler Dataetisk Råd, at regeringen udvikler fælles retningslinjer for offentlige myndigheders anvendelse af generativ AI, som slår fast, hvordan myndigheder skal håndtere risikoen for fejl ved at definere en tærskel for acceptable risici, og slår fast, hvilke skridt myndigheder skal tage for at kvalitetssikre kunstig intelligens.
Danmark har i disse år en unik mulighed for at fortsætte som digital frontløber, ikke kun med at anvende kunstig intelligens, men også med at udvikle og indføre de dataetiske rammer, som skal hjælpe os med at bruge teknologien sikkert og ansvarligt.
Ligesom airbags og færdselsregler har været det for bilen, er sådanne rammer ikke en stopklods for, men en del af udviklingen.
Generativ AI har enormt potentiale i den danske offentlige sektor. Det er nu vi i fællesskab skal finde den bedste måde at realisere det.