Annonce
Viden

Forsker: Krigsrobotter skal lære etik fra de store filosoffer

Kan man programmere en robot, så man er sikker på, at den ikke rammer civile eller udøver tortur i krig? Med andre ord: Hvordan forener man robotteknologi med etik og filosofi?

Kan vi lære krigsrobotter at skelne ven fra fjende? Læs med, når en forsker fra ugens podcast fortæller om, hvordan man forener teknologi og filosofi. Foto: John Stillwell/AP

Kunstig intelligens og robotteknologi er i voldsom udvikling i disse år, hvor vi ikke kun ser en fremkomst af selvkørende biler, men også krigsdroner, der kan kontrolleres fra et trygt skrivebord langt væk fra slagmarken.

Det giver selvsagt nogle etiske dilemmaer – især når teknologien bliver brugt til at kæmpe mod mennesker.

Et af spørgsmålene i debatten handler netop om, hvorvidt det er muligt at lære robotter at handle efter de internationale konventioner for krigsførelse, så de eksempelvis ikke dræber civile.

»I princippet kunne man godt programmere en robot – givet, at den kan skelne mellem en civil og en fjende – til kun at angribe fjenden,« forklarer Martin Mose Bentzen, der er lektor i teknologietik ved Management Engineering på DTU i Videnskab.dk’s ugentlige podcast.

Det lyder måske simpelt og ligetil, men teknologien har en bagside.

»Problemet kan være, at så kan man også programmere robotten til ikke at følge krigens love, eksempelvis til kun at angribe civile. For robotter har jo ingen sund fornuft,« siger Martin Mose Bentzen.

Robotterne skal lære Kant og utilitarisme

Derfor er en form for sund fornuft netop det, han i et nyt projekt stræber efter at inkorporere i robotter. Ideen er, at robotterne skal "lære" at agere efter en række etiske principper – blandt andet inspirereret af den tyske filosof Immanuel Kant.

Læs også: Bør vi frygte kunstig intelligens?

Robotterne skal eksempelvis sikres gennem Immanuel Kant’s begreb, det kategoriske imperativ, der betyder, at mennesker aldrig må bruges som middel til at opnå et mål, hvis de ikke også behandles som et mål i sig selv.

Derudover indgår utilitarismen som et andet af principperne i det nye projekt. Det går ud på, at robotterne skal handle således, at de maksimerer velfærden i en situation – dvs. vælger den handling, hvor færrest eksempelvis kommer til skade.

Yderligere nævner Martin Mose Bentzen dobbelt-effekt princippet, der er udviklet af den italienske filosof og teolog Thomas Aquinas. Det handler om;

»at man ikke må bruge en negativ effekt til at opnå noget godt. Det er okay, at det gør ondt til tandlægen, da det er en ikke-intenderet bieffekt af operationen, men det er ikke okay at lyve for at blive rig,« siger han og fortsætter:

»Så det, jeg mener, man skal gøre, er at tage udgangspunkt i den 2.500 år gamle tradition, vi har inden for filosofi og etik, hvor der er en dialog, og der er udviklet et begrebsapparat, der kan bruges på de her dilemmasituationer (som eksempelvis en krigssituation, red.).«

Et »prisværdigt initiativ«

Selvom der er lang vej til at integrere etiske principper i computerteknologien bag robotter, er ideen og initiativet oplagt ifølge flere forskere.

Læs også: Forskere boykotter sydkoreansk universitet af frygt for dræberrobotter

»Det er et prisværdigt initiativ, fordi det anerkender behovet for at tænke etik ind i et robotteknologisk perspektiv. Hvorvidt Kant er dækkende, det er et andet spørgsmål,« siger Thomas Ploug, der er professor på Institut for Kommunikation og Psykologi på Aalborg Universitet.

Og det er da også utroligt svært at vælge, hvilke etiske principper, der er de væsentligste for at sikre en optimal adfærd hos eksempelvis krigsrobotter, mener Martin Mose Bentzen.

»Thomas har ret i, at Kant og utilitarisme ikke er nok. Det er jo et nyt forskningsfelt det her, så jeg tænker også, at der kommer andre på banen end lige os. Vi har i øjeblikket eksempelvis fokus på dobbelt-effekt princippet, Kant og utilitarisme, men det kan sagtens ændre sig henad vejen,« slutter han.

Artiklen er publiceret i samarbejde med videnskab.dk

Følg
Jyllands-Posten
SE OGSÅ
Kronik: Vi kommer til at "arbejde" mere i fremtiden
Keld Holm
Kunstig intelligens og robotter i fremtiden betyder ikke, at vi skal arbejde mindre. Tværtimod vil flere udfolde deres potentialer og bruge mere tid på at dygtiggøre dem.
Annonce
Annonce
Forsiden lige nu
Annonce
Annonce
Viden
Annonce
Modtag Videnskab.dk's nyhedsbrev Tilmeld
Flere nyheder på Videnskab.dk
Annonce

Jyllands-Posten anvender cookies til at huske dine indstillinger, statistik og målrette annoncer. Når du fortsætter med at bruge websitet, accepterer du samtidig brugen af cookies. Læs mere om vores brug her