Sanktioner som følge af data-sammenkøringer vil primært ramme de svageste.
I Danmark har vi nu med Ghettoplanen et forslag om at sammenkøre alle mulige registre for at finde udsatte børn. Et prisværdigt mål, men
Gladsaxe Kommune vil basere den tidlige opsporing af familier med børn i risiko for social udsathed på samkørsel af egne, relevante data fra sundhedsområdet, socialområdet, beskæftigelsesområdet samt dagtilbudsområdet. Opsporingen vil ske på baggrund af risikoindikatorer, så som udeblivelser fra tandplejen, antal underretninger på barnet, forældres misbrugsbehandling og tilknytning til jobcenter. Målgruppen vil være familier med børn, der har én eller flere indgange til kommunen, for eksempel i forbindelse med ekstra behovssundhedspleje, ledighed eller misbrugsproblemer.
Husk at hjælpen til udsatte børn kan være meget voldsom. Vi skal hjælpe udsatte børn men det er tydeligt for enhver, at sammenkøring af registre baseret på “risikoindikatorer” sigter på de svageste i samfundet.
Er det udtryk for at der ikke er udsatte børn i resten af samfundet? Nej, men er man bare middelklasse eller højere vil man kunne undgå at blive registreret med risikoindikatorerne og så slipper man for at blive fanget i sammenkøringen. Dette er allerede dokumenteret i Virginia Eubanks’ “Automating Inequality“:
In Allegheny, your child’s at-risk score is largely defined by your use of social services to deal with financial crises, health crises, addiction and mental health problems. If you deal with these problems privately — by borrowing from relatives or getting private addiction treatment — you aren’t entered into the system, which means that if these factors are indeed predictors of risk to children, then the children of rich people are being systematically denied interventions by the same system that is over-policing poor children.
Eubanks slutter af med 2 spørgsmål designere af systemer som minimum er nød til at spørge sig selv:
1. Does the tool increase the self-determination and agency of the poor?
2. Would the tool be tolerated if it was aimed at non-poor people?
Vil man have andre eksempler på hvordan det kan gå kan man læse op på “predictive policing“, Kinas brug af ansigtsgenkendelse eller i det hele taget Kinas “citizen score“. Den sidste er i virkeligheden blot en logisk konsekvens af vores egne risikovurderinger indenfor kredit- og forsikringssektorerne.
Pingback: “Men os kan I stole på” | Hennings blog
Pingback: Databeskyttelsesloven, igen | Hennings blog
Pingback: Jeg er i opposition | Hennings blog
Pingback: Overvågning af danskerne | Hennings blog
Pingback: Smart cars and surveillance | Hennings blog
Pingback: Laws of surveillance, data and life | Hennings blog
Pingback: Colour me surprised; it was surveillance, after all | Hennings blog
Pingback: AI snake oil | Hennings blog