Fortsæt til indhold
Debatindlæg

Algoritmer skubber kvinderne ud af systemet

Danske kvinder bruger AI 30 pct. mindre end mænd og har heller ikke samme adgang til teknologisk kompetenceudvikling som mænd. Det har alvorlige konsekvenser i et samfund, hvor algoritmer styrer mere og mere. Og algoritmerne er ikke onde. De er bare loyale.

Katrine BachCo-founder, CEO, Connected Women in AI
Louise SparfStrategisk direktør, Atlas Group

Dette er et debatindlæg: Indlægget er udtryk for skribentens holdning. Alle holdninger, som kan udtrykkes inden for straffelovens og presseetikkens rammer, er velkomne, og du kan også sende os din mening her.

Den amerikanske psykolog og skribent Megan Cornish lavede for nylig et simpelt forsøg: Under indstillingerne på LinkedIn skiftede hun sit køn til at være mand i en uge, og det skulle vise sig at starte en global debat.

For som mand oplevede hun pludselig at få markant større synlighed og engagement på sine opslag på LinkedIn, end hun normalt fik som kvinde. Det fortalte hun efterfølgende om på LinkedIn, og det gik viralt.

Massevis af andre kvinder lavede samme forsøg og havde samme oplevelse. Kort tid efter tog LinkedIn selv til genmæle i et indlæg for at forklare, hvad der foregik – herunder at deres algoritme ikke med overlæg er indstillet til at favorisere mænd over kvinder.

Men det mest interessante er dog ikke, om LinkedIn med overlæg har lavet en algoritme, der skruer ned for kvinder. For det har de med største sandsynlighed ikke. Det interessante er, hvorfor eksperimentet alligevel rammer et ømt punkt og udløste genkendelse blandt tusindvis af andre kvinder.

For Megan satte nemlig ord på noget, mange af os kvinder længe har mærket: Vi er simpelthen mindre synlige i de systemer, der former vores professionelle muligheder. Ikke fordi kvinder ikke kan eller vil, men fordi kvinder systematisk ikke deltager i og bruger teknologien i samme omfang og på samme måde som mænd.

Der er også dokumenterede forskelle i, hvordan mænd og kvinder præsenterer sig selv og deres kompetencer, f.eks. hvilke “skills” de fremhæver, ligesom der er forskel på, hvor meget kvinder og mænd bruger sprog, der promoverer dem. Her er kvinder mere nedtonede end mænd.

Summen af de faktorer betyder, at kvinder ikke repræsenteres på samme måde som mænd i data og algoritmers struktur. For algoritmer og data arver mønstrene i den verden, de er bygget på.

Så hvis kvinder oplever at få mindre synlighed på LinkedIn, er det sådan set ikke LinkedIns skyld. Det er blot et symptom på et langt større strukturelt problem med kvinders repræsentation i data og algoritmestrukturer. Og det repræsentationsproblem er et samfundsanliggende og noget, vi skal være opmærksomme på i et langt bredere perspektiv end blot LinkedIn.

At algoritmer bare loyalt reproducerer virkeligheden, er nemlig ikke det samme som, at de skaber et neutralt udfald. Det betyder snarere, at der opstår en alvorlig spiral: lavere deltagelse fra kvinder – mindre data om kvinder – dårligere modeller i forhold til at repræsentere kvinder – mindre relevans for kvinder – endnu lavere deltagelse fra kvinder.

Og forfra igen med endnu mere forstærkende effekt.

Det er den samme spiral, der lige nu udfolder sig i forhold til kvinder og AI, og som accelererer: Kun 22 pct. af AI-professionelle globalt er kvinder, og generelt ser vi på undersøgelser, både i udlandet og herhjemme, at kvinder bruger AI mindre end mænd.

Herhjemme viste en repræsentativ undersøgelse i år fra Ipsos og Connected Women in AI, at danske kvinder bruger AI 30 pct. mindre end mænd, men at de heller ikke oplever at have samme adgang til teknologisk kompetenceudvikling i forbindelse med deres job, som mændene har. Ligesom de har færre rollemodeller inden for teknologien, så de ser ikke, at det er naturligt at gå den vej. Hvilket igen får dem til at opleve, at teknologien er mindre relevant for dem. Osv.

Det er problematisk, fordi AI-systemer og -værktøjer lige nu indtager både hverdagen og arbejdslivet med rasende hast. Og når AI-systemer udvikles og trænes, sker det ikke kun på “rå data”, men på adfærd: Hvem bruger værktøjerne? Hvem eksperimenterer? Hvem producerer indhold? Hvem får feedback? Hvem bliver betragtet som relevant?

Hvis kvinder i mindre grad bruger AI-værktøjer eller poster indhold, der rates algoritmisk som ”mindre relevant”, vil det smitte af på AI-systemerne. Og hvis kvinder samtidig ikke i nær så høj grad hverken udvikler eller træner modellerne gennem konkret brug og heller ikke i samme grad som mænd indgår i de professionelle feedback-loops – så bliver kvinders perspektiver ganske enkelt sjældnere datapunkter i systemet. Igen og igen. Ikke fordi nogen aktivt har besluttet det, men fordi fravær også er et signal til algoritmerne.

Vi er lige midt i den største teknologiske omvæltning siden den industrielle revolution, og vi har en reel mulighed for, at en tech-revolution bliver lige så meget formet af kvinder som af mænd. Hvilket er vigtigt, ikke blot ud fra et fairness-perspektiv, men også, fordi vi ved, at diversitet skaber mere innovation.

Men det sker kun, hvis vi aktivt gør noget for at bryde de fornævnte mønstre, som er årsag til f.eks. casen med LinkedIn. Og vi er nødt til at anerkende, at konstateringen af problemet ikke er hverken piveri fra kvinders side, ej heller en kritik af mænd. Det er transformativt potentiale!

For der er en reel mulighed lige nu for at skabe løsninger og systemer, der ikke bare løfter halvdelen af befolkningen, men hele befolkningen. Der er en mulighed for at lave teknologiske løsninger og værktøjer, der forløser det innovative potentiale ikke bare i mændene, men også i kvinderne. Men den mulighed risikerer vi at forspilde lige nu, hvis vi ikke tager eksempler som det med LinkedIn alvorligt.

Vi ved, at store sprogmodeller allerede bærer bias. Vi ved, at klassifikationssystemer træner på data, der primært repræsenterer mænd. Vi ved, at “lederskabssprog” i modellerne er tættere på “mandlige” sprogkoder. Og vi ved, at de professionelle platforme, rigtig mange af os bruger, belønner tonearter, der traditionelt forbindes med maskulin kommunikation. Alt sammen noget, der forstærker de mønstre, der ikke taler til og inkluderer kvinder – og derfor støt og roligt taber endnu flere kvinder.

Hvis vi ikke griber ind og handler på det nu, så vil kvinder blive skrevet ud af den næste store teknologiske udvikling – ikke på grund af dårlige intentioner, men ”matematisk”. Samtidig med at vi misser al den viden og innovationskraft, der kunne være i at inkludere hele befolkningen i den her udvikling.

Derfor har alle – virksomheder, institutioner, politikere, platforme – et ansvar for at sikre:

- at kvinder får kompetencer og opbakning til at bruge teknologien

- at tydeliggøre, hvorfor kvinders deltagelse betyder noget – helt konkret og samfundsmæssigt

- at platforme som LinkedIn bliver langt mere transparente om deres modeller og de konsekvenser, de har

- at AI-træning og datasæt systematisk monitoreres for kønsbalance

- at vi adresserer problemet, så vi ikke accepterer en ny generation af værktøjer, som ikke repræsenterer diverst.