Fortsæt til indhold
Debatindlæg

Algoritmer er den usynlige magt, vi glemmer

Som samfund kan vi ikke overlade professionel synlighed og mulighed for indflydelse til systemer, der ukritisk viderefører historiske mønstre. Algoritmer former vores fællesskaber, vores faglighed og vores muligheder.

Christina Lundsgaard OttsenPh.d., psykolog, ledelseskonsulent, forfatter til "Biasbevidst Ledelse", Risskov

Dette er et debatindlæg: Indlægget er udtryk for skribentens holdning. Alle holdninger, som kan udtrykkes inden for straffelovens og presseetikkens rammer, er velkomne, og du kan også sende os din mening her.

Kunstig intelligens er i disse år blevet en stille medspiller i vores arbejdsliv. Ikke kun som et redskab i baggrunden, men som en beslutningsmekanisme, der afgør, hvem der bliver set, hørt og taget alvorligt.

For nylig beskrev JP, hvordan direktør Louise Sparf oplevede markant større synlighed på LinkedIn, efter hun ændrede sit køn til mand på sin profil.

For nogle kan det ligne en bagatel: lidt flere likes, lidt mere eksponering. Men sagen er langt mere principiel, for den peger på en blind vinkel i vores forståelse af ledelse, magt og teknologi.

Det handler nemlig ikke om én kvinde og én algoritme. Eksperimentet med digitalt kønsskifte er afprøvet globalt, og resultaterne peger i samme retning: Vi har skabt et digitalt økosystem, der fordeler synlighed, adgang og muligheder, uden at nogen fuldt ud kan forklare, hvordan beslutningerne træffes. Og endnu vigtigere – uden at nogen tager ansvar, når teknologiske bias får reelle konsekvenser for mennesker.

Algoritmer er ikke neutrale. De er fortidens normer omsat til kode. Kunstig intelligens er kun så klog som de data, den trænes på, og historiske data er fulde af mønstre, der favoriserer nogle grupper og marginaliserer andre. Når en algoritme lærer, at ledere oftere hedder Lars end Aisha, eller at direktører oftere bærer jakkesæt end kjoler, gengiver teknologien ikke blot virkeligheden, men forstærker den og skaber en selvopfyldende profeti.

Bias i algoritmer er et velkendt fænomen. I ”Biasbevidst ledelse” beskriver vi blandt andet, hvordan online jobannoncer for lederstillinger og højindkomstjob oftere vises til mænd end til kvinder, og hvordan bankernes software systematisk vurderer kvinder som mindre kreditværdige end mænd med identisk økonomi.

Med baggrund i forskning vil det næsten være overraskende, hvis LinkedIns eksponering ikke er påvirket af køn. Algoritmer træffer beslutninger på baggrund af data formet af historiske normer i det materiale, der allerede er tilgængeligt online. Derfor reproduceres eksisterende uligheder mere effektivt, end noget menneske ville kunne.

Men når brugere oplever drastiske fald eller stigning i synlighed på et socialt medie, er det største problem ikke intention om diskrimination, for der er sjældent tale om bevidst forskelsbehandling. Det største problem er, at hverken brugere, udviklere eller virksomhederne selv kan redegøre for, hvad der er sket. Det skaber et magtvakuum.

Synlighed er magt. Når LinkedIn er blevet en central arena for faglig legitimitet, personlig branding og adgang til professionelle fællesskaber, bliver algoritmernes præferencer ikke bare tekniske. De bliver politiske og værdibaserede.

Vi taler i stigende grad om uformel magt i organisationer: Den usynlige indflydelse, der ikke kan aflæses i et diagram, men som alligevel former virkeligheden. I dag er algoritmer måske den mest effektive form for uformel magt og samtidig den mest uigennemsigtige.

Når ingen ejer magten, forsvinder ansvaret. Det er netop kernen i problemet. Vi mangler ikke flere uigennemsigtige AI-modeller. Vi mangler ledere, der forstår, at teknologi i sig selv er en magtfaktor, som skal forvaltes.

Det kræver ledere, der ved to ting:

1. Bias kan ikke fjernes – kun forvaltes. Kunstig intelligens vil altid afspejle normer fra de mennesker og historiske data, den er skabt af. Derfor kræver teknologien dømmekraft, ikke blind tillid.

2. Digital magt skal ledes som al anden magt. Med transparens, etik, bevidsthed og tydelige rammer – ikke som et lukket kredsløb af optimeringslogikker.

Når vi taler om digital transformation, taler vi sjældent om, hvad teknologien betyder for diversitet, inklusion eller psykologisk tryghed. Men digital ledelse er ledelse. De samme krav om ansvarlighed og magtbevidsthed gælder – blot med større kompleksitet, fordi algoritmer handler hurtigere og i større skala, end noget menneske kan.

Som samfund kan vi ikke overlade professionel synlighed og mulighed for indflydelse til systemer, der ukritisk viderefører historiske mønstre. Algoritmer former vores fællesskaber, vores faglighed og vores muligheder.

Spørgsmålet er derfor ikke, om teknologien udvikler sig for hurtigt. Spørgsmålet er, om vores ledelsesbevidsthed udvikler sig hurtigt nok.

Magten over algoritmerne skal være menneskelig. I dag er det uklart, om det er tilfældet. Den erkendelse ramte mig, da jeg startede på at skrive dette indlæg om oplevelsen af kønnede bias, og autokorrektur igen rettede mit navn fra “Christina” til “Christian”. En bagatel, måske – men også en påmindelse om, at algoritmer altid vælger en standard. Og standarder er aldrig neutrale.

Det er et privilegium at blive valgt først. Det gælder ikke kun mellem køn, men på tværs af alle de historiske magtforhold, som teknologien risikerer at forstærke, hvis vi ikke leder den aktivt.