Apple udskyder planer om iPhone-fotoscanning
Kritik fører nu til, at Apple udskyder om at scanne efter ulovlige billeder af seksuelt misbrug af børn.
Da Apple sidste måned annoncerede planer om at scanne billeder, der blev uploaded til backup på iCloud, for seksuelt misbrug af børn, rejste sig en bølge af kritik.
Den massive kritik, der har kørt den eneste måned, har fået Apple til at udskyde planerne om at scanne for det ulovlige materiale.
– ”Vi annoncerede i sidste måned planer om funktioner til at beskytte børn mod de rovdyr, der bruger kommunikationsværktøjer til at rekruttere og udnytte dem. Vi ville begrænse spredning af materiale med seksuelt misbrug af børn. Efter feedback fra kunder, forskere og andre grupper, har vi besluttet at bruge ekstra tid over de kommende måneder til at indsamle input og foretage forbedringer, før vi frigiver disse vigtige sikkerhedsfunktioner,” udtaler Apple om sagen i et officielt statement.
Organisationen Electronic Frontiers Foundation, der har indsamlet over 25.000 underskrifter mod Apples tiltag, er ikke faldet til ro efter udskydelsen. Til BBC siger de, at de stadig forlanger, at Apple ikke bare skal lytte men droppe planerne helt.
SÅDAN VIRKER SCANNINGEN: Analysen, der sker lokalt på telefonen, foretages med teknologien “hashes”. Et “hash” er en unik talkodeberegning for hvert billede. På telefonen findes en database (CSAM) med hashes på billeder, der tidligere er kategoriseret som børneporno. Når et lokalt billede, på vej til iCloud, har et match med en hash-talkode fra databasen, bliver får billedet en “markering”. Når der er omkring 30 matches, vil en medarbejder gennemgå de markerede billeder. Er billederne kendt i CSAM-databasen bliver myndighederne informeret.
Massiv kritik af Apples tiltag
Kritikken mod Apple kom fra iPhone-ejere såvel som sikkerhedseksperter, som kritiserede Apple for at gå på kompromis med tidligere løfter om, at beskytte brugernes privatliv.
Kan man scanne for én ting, kan man i princippet scanne for hvad som helst, lød det. Ondsindede regimer vil kunne udnytte funktionen ved at lægge pres på Apple, lød kritikken. Herefter kom der et officielt opråb til Apple om at droppe planerne.
Apples reaktion var at præcisere hvad de tidligere havde sagt; vi scanner ikke dine billeder, men ser på et digitalt match i billedet op mod kendte misbrugsbilleder i CSAM-databasen som US National Center for Missing and Exploited Children (NCMEC) står bag.
LÆS OGSÅ: Apples forklaring af hvordan teknologien fungerer
Både Google og Facebook scanner allerede brugernes billeder op mod CSAM.
Det skal siges, at ingen er imod tiltag, der kan forhindre misbrug af børn. Kritikken går udelukkende på bekymringen over, hvad funktionen ellers kan benyttes til.
Mere til historien
Apple er lige nu, sammen med Google, ramt af en anden træls sag. Et stort fokus på indtjeningen i App Store, kan føre til, at Apple skal gentænke forretningsplanen for deres milliardbutik App Store.