Tilmeld dig

Forbundet Kultur og Informations generalforsamling 2021

Gå til sidens indhold

Vi skal beskytte demokratiet

SIRI-Kommissionen kommer i deres afsluttende rapport med fem lovforslag og en række anbefalinger. Vi skal sikre, at vores brug af data og kunstig intelligens ikke skader os og demokratiet mere, end det gavner, siger medlem af kommissionen og professor på Aalborg Universitet Thomas Ploug.

Vi er nået til en udvikling, hvor maskiner for eksempel diagnosticerer på niveau med læger. Vi er nødt til hele tiden at debattere, hvad vi vil bruge AI til, og hvad vi ikke vil, for teknologien er der, siger professor på Aalborg Universitet Thomas Ploug, der forsker i brug af AI i sundhedsvæsenet. Foto unsplash

Tekst Sabrine Mønsted 

Hvad er de vigtigste anbefalinger, I kommer med?
- Det er svært at pege nogle ud, for vi kommer med de samlede anbefalinger, som vi mener, er afgørende for, at vi får balanceret brugen af teknologi og etik og passet på demokratiet. Anbefalingerne falder i to dele. De første er overordnede og handler om vores grundlæggende tænkning i brugen og udviklingen af data og AI (kunstig intelligens), hvor vi skal have fokus på vores værdier og principper på de forskellige områder. Den anden del er konkrete anbefalinger, der direkte kan blive til lovgivning og guidelines og policy i virksomheder og brancher.

Hvilke af de konkrete anbefalinger, vil du sige, er de væsentligste?
- Anbefalingerne på medieområdet, der både er de traditionelle medier og de sociale medier – er meget væsentlige, fordi medierne spiller en afgørende rolle for demokratiet, kombineret med, at det er et af de mindst regulerede områder, når det kommer til brug af AI. Vi ser for eksempel store udfordringer med fake news og politikernes brug af microtargeting, hvor budskaber og kampagner tilpasses folks præferencer og sendes direkte. Det kommer faretruende tæt på manipulation. Derfor anbefaler vi, at det bliver lovpligtigt for politikere at oplyse om deres køb af data og brug af microtargeting, og at der oprettes et lovpligtigt offentligt register over digitale politiske reklamer. På det overordnede plan anbefaler vi, at medierne aktivt modarbejder misinformation og falske nyheder, og at platformsvirksomheder såsom Instagram, Facebook og Twitter løbende rapporterer om censur og moderation af indhold, så man får et overblik over omfanget.

Hvorfor ikke gøre de sidstnævnte anbefalinger lovpligtige også?
- Fordi vi anerkender, at der er mange måder at gøre tingene på, og lovgivning er ikke løsningen på det hele. Det handler også om at sikre en bevidsthed og dialog om, hvad vi som samfund vil med teknologien, både blandt politikere, befolkning og virksomheder.
Vi ser også en positiv udvikling med eksempler på virksomheder, der regulerer sig selv etisk, fordi det er en god forretning at have styr på data og markedsføre sig på at beskytte individets privatliv og demokratiet. Twitter har eksempelvis fjernet flere tweets fra den amerikanske præsident, med argumenter om, at de opfordrede til vold og krænkede fotografens ophavsret, og IBM har stoppet udviklingen af deres ansigtsgenkendelsesprogram. Begge dele afspejler en stigende bevidsthed og et ønske om at tage et etisk ansvar for, hvad platformene bruges til.

I fremhæver gennemsigtighed som et af de overordnede principper i vores brug af AI, hvad ligger der i det?
- Der er en global enighed om, at vi er nødt til at stille høje krav til den såkaldte forklarbarhed, når vi bruger kunstig intelligens til at tage (datadrevne) beslutninger for os. De beslutninger kan påvirke vores liv markant. Det kan være sundhedsfaglige diagnoser, afgørelser om offentlige ydelser eller sågar en retslig afgørelse. Derfor skal vi langt hen ad vejen kunne forklare og forstå, hvorfor maskinerne tager de beslutninger, de gør. En forskningsartikel i tidsskriftet Science beskrev fornyligt et computersystem i USA, der foretog vurderingen af, om patienterne skulle tildeles efterbehandling efter et sygdomsforløb. Da man testede systemet i forhold til racemæssig bias, viste det sig, at kun 17 procent af de sorte patienter blev henvist, men at 47 procent burde være blevet henvist til efterbehandling. Så transparens i systemerne er afgørende for, at vi etisk kan forsvare at lade AI træffe afgørelser for os. Det handler både om at beskytte individet og demokratiet, at vi kender baggrunden for væsentlige beslutninger i det offentlige eller private.

Men argumentet for at bruge AI er, at det skal være bedre og hurtigere end mennesker?
- Ja og vi kan heller aldrig fuldstændig efterregne maskinernes kalkuler, der jo er hundredetusindevis af forbindelser på tværs. Men vi skal som samfund diskutere, hvilken »forklar-barhed«, vi mener, er rimelig, og vi skal teste systemerne for bias. Der kan også være AI-beslutninger, vi etisk aldrig vil tillade som samfund, for eksempel i forbindelse med tvangsfjernelse af børn, fordi vi ikke kan leve med utrygheden i de datadrevne beslutninger. Der er også langt flere etiske overvejelser i at bruge AI i retsafgørelser end ved at bruge det til at stille lægelige diagnoser.

Nu har I afleveret den afsluttende rapport, hvad håber I, det vil resultere i?
- At anbefalingerne bliver grebet af politikere og af brancher. Vi har gødet jorden med en rapport, der er let implementérbar. Nu er det afgørende, at nogle tager ansvar. Desuden må dialogen om, hvordan vi som samfund vil bruge AI, og hvornår kollektivets bedste trumfer individets frihedsrettigheder, ikke stoppe. Vi skal selv styre udviklingen.

Om SIRI-Kommissionen

SIRI-Kommissionen har siden 2016 haft fokus på, hvordan kunstig intelligens og teknologi kan komme til at påvirke os. Baggrunden var en kombination af en bekymring i befolkningen, for eksempel om AI kunne føre til stigende ledighed, og en manglende politisk interesse for debatten.

Ud over Thomas Ploug tæller SIRI-Kommissionen blandt andet folketingsmedlem for Radikale Venstre Ida Auken og formand for IDA Thomas Damkjær Petersen som formænd såvel som Henrik Bødskov, administrerende direktør for IBM Danmark, og Marianne Dahl Steensen, administrerende direktør for Microsoft Danmark.

Find rapporten med alle anbefalinger her.