Dine digitale rettigheder
Du fortæller ikke dine børn om din søgehistorik, så hvorfor skulle Facebook vide det? Jeg refererer ikke til dine statusopdateringer. Jeg taler om din data. Den data, som er dine digitale fodspor i den online verden og som online platforme anser som et lukrativt marked. Men det bliver ikke ved med at gå. Vi skal ikke tolerere lemfældig omgang med private detaljer - heller ikke på internettet.
Af Christel Schaldemose medlem af Europarlamentet og gruppeformand for den socialdemokratiske delegation i Europa-Parlamentet.
Når man på Facebook får en reklame for merinould, så er det ikke fordi garnindustrien er gået bananas med en landsdækkende kampagne. Den reklame rammer dit Facebook-feed, fordi en algoritme har gennemskuet dit garnforbrug. Ejer man en smartphone, så lever der noget for enden af ens fingerspidser. Et kunstigt liv. Gennem ens data har den allerede regnet ud, at man nok snart er klar til næste strikkeprojekt. Før man når at tænke sig om, lever man sit liv i symbiose med en kunstig intelligens.
Den moderne verden indhenter os. Hvis ikke den allerede har gjort det. Det føles grænseoverskridende at blive ”gennemskuet” eller ”regnet ud” af noget. Den overskridelse af privatsfæren var aldrig gået i den virkelige verden. Men indtil nu, så har internettet været et slaraffenland for intime informationer.
Algoritmeansvar
Det er ikke reklameringen af merinould som er problemet. Det er årsagen til, at merinould kommer op i netop dit nyhedsfeed. Det er den algoritme, som afgør den målrettede reklamering, der er problematisk.
En algoritme er bygget på matematiske systemer, som tilsammen danner en formel til at løse problemer. I en simpel udgave, kan den løse kortspil, hvor den kan kategorisere tal og farver. I en mere kompleks udgave, kan den forstå ordsammenhænge og danne klynger, på baggrund af data. Vores data. Algoritmen har udviklet sig fra at forsøge forstå at kortspil, til at forsøge at forstå mennesker. En fantastisk udvikling for AI. Men historier hvor algoritmers forsøg ender galt dukker op i ny og næ.
I februar 2019 skrev Frederik Kulager, journalist fra avisen Zetland, en artikel om en mediestorm Youtube nyligt havde været i. Youtube var blevet anklaget for at promovere videoer med letpåklædte mindreårige til deres brugere. Kulager beskriver, at det tager ham tre klik at gå fra søgningen ”bikini haul”, til at få foreslået videoer af unge letpåklædte piger.
Det eneste, der forbandt de videoer, var platformens kunstige intelligens, deres algoritme.
Børnepornografi er ikke tilladt, bestemt heller ikke på Youtubes platform. Sagen blev taget seriøst, og algoritmen blev tilrettet og videoerne fjernet. Men sagen kastede lys over, hvor uskyldigt en søgning kan starte, og hvor ekstremt den kan ende. Den slags eskalering kalder man for rabbit holes, eller kaninhuller, og det er de fleste algoritmers prioritet.
Algoritmen forsøger at fastholde brugerens interesse på siden så længe som muligt. Når brugeren interagerer med platformen, så vil tjenesten tjene flere penge, via. eksempelvis reklamer. For at holde brugeren på platformen, vil algoritmen eksempelvis blive ved at foreslå dig videoer, som den analyserer sig frem til, kunne have interesse for dig.
For ofte går algoritmerne for langt i dets forsøg på at fastholde forbrugerens fokus. Og desværre er eksemplet fra tidligere ikke unikt.
Vi lever ikke i en verden, hvor vi kan dømme kunstig intelligens som vi kan med mennesker. Men det skal ikke betyde, at algoritmer for fripas, når forbrugere systematisk udsættes for ekstremt eller upassende indhold. Firmaerne bag algoritmerne må stå til ansvar for, hvilket indhold de viser på deres platforme og ikke gemme sig bag algoritmerne.
Dark patterns
Hvis din hverdag er langt fra Youtubes algoritme, så kan vi i stedet tage et nærmere kig på din næste ferie. De fleste har prøvet at kigge efter flybilletter, eller hoteller og følt en enorm stress skylle ned over dem. Notifikationerne om ”få hoteller” eller ”laveste flypriser nu” bugner frem på skærmen. Den form for forbruger-nudging kalder man dark patterns.
Dark patterns er tricks brugt på websider som prøver at snyde dig til at bruge penge, eller tilmelde dig, som du ikke havde intentioner om at gøre på forhånd. Det er ikke bare en måde at stresse eller besværliggøre processen på - det er på grænsen til at være adfærdskontrollerende. Det er et forsøg på at kontrollere forbrugeren ved at overeksponere dem for marketing. Havde du handlet i den virkelige verden, var den slags tricks aldrig blevet tolereret. Hvorfor skal den så blive det på nettet?
Hvad der er ulovligt offline skal også være ulovligt online
Vi har ret til at kræve demokratisk kontrol - også i et online regi. Der skal ikke være retsmæssig forskel på, om man er forbruger online eller offline. Derfor skal vi kræve samme rettigheder som vi har i den virkelige verden. For at beskytte forbrugeren har vi brug for et regelsæt for onlineplatforme. Sådan kan vi sikre forbrugervilkår og rettigheder ikke kun kommer firmaer til gode.
I EU er jeg chefforhandler på det der hedder Digital Services Act (DSA). Her arbejder jeg for at istandsætte lovgivning omkring, at beskytte forbrugerrettigheder på internettet og sørge for at etablere transparens og ansvarlighed hos online virksomheder.
Det indebær at firmaerne bag den kunstige intelligens stilles til ansvar juridisk, istandsætter strammere regler for brug af AI og nudging metoder som dark patterns, og generelt sætter ind med regelsæt for virksomheder, særligt med hensyn til gennemsigtighed, tilgængelighed, retfærdighed og ikke-diskriminerende foranstaltninger.
Det er en balancegang - vi ønsker ikke at hæmme den digitale udvikling eller udviklingen af AI, men samtidig er det nødvendigt at stille krav. Retfærdige krav, som skal sikre vores rettigheder online, ligesom vi er sikret dem offline.
Til forsiden
Andre artikler i dette nr. af Ny Politik:
Nye roller for Europa efter Afghanistan?
Om forholdene i forskningsindustrien
Reform af psykiatrien – en ny tiårsplan
Kampen mod byen