Nu reagerer Apple – “scanner ikke iPhone-billeder”
Apple beklager forvirringen om funktionen, hvor brugernes billeder bliver scannet for seksuelt misbrug af børn, når de overføres til iCloud.
Apple mener, at annonceringen af funktionen, der skal tjekke iPhone-billeder for misbrug af børn, kendt som børnepornografi, er ”misforstået bredt”.
– ”Vi ville ønske, at budskabet var kommet lidt mere klart frem,” har Apples softwarechef Craig Federighi udtalt til The Wall Street Journal.
Scanner ikke billeder på iPhone
I interviewet lægger Craig Federighi vægt på, at systemet ikke scanner indhold på brugernes telefoner.
Det er først i det øjeblik, at et foto sendes til iCloud, at systemet undersøger, om billedet er kendt i databasen CSAM, som US National Center for Missing and Exploited Children (NCMEC) står bag.
CSAM indeholder digitale fingeraftryk af kendte ulovlige billeder af børn der mishandles. I scanningen tjekkes, om der er et digitalt match mellem billedet, der uploades, og de kendte billeder i CSAM-databasen.
Systemet analyserer, ifølge Apple, kun de digitale fingeraftryk og ”ser” ikke på selve billedet.
Ét match lukker ikke din Apple-konto
Craig Federighi fortæller i interviewet med WSJ, at Apple ikke lukker din iCloud-konto eller Apple ID, ved et enkelt match.
Der skal ”omkring 30 matches til” inden kontoen bliver markeret til gennemgang. Her vil en medarbejder tjekke de billeder, som har det digitale fingeraftryk. Bekræfter medarbejderen, at der er tale om ulovlige billeder, bliver de relevante myndigheder informeret.
Ifølge Apple kan brugerne stadig have billeder af deres børn ved stranden eller i badekarret på deres telefoner og i iCloud.
SÅDAN VIRKER SCANNINGEN: Analysen, der sker lokalt på telefonen, foretages med teknologien “hashes”. Et “hash” er en unik talkodeberegning for hvert billede. På telefonen findes en database (CSAM) med hashes på billeder, der tidligere er kategoriseret som børneporno. Når et lokalt billede, på vej til iCloud, har et match med en hash-talkode fra databasen, bliver får billedet en “markering”. Når der er omkring 30 matches, vil en medarbejder gennemgå de markerede billeder. Er billederne kendt i CSAM-databasen bliver myndighederne informeret.
Apple: Andre gør det samme
Som en forklaring af den nye funktion, der i første omgang åbner i USA, siger Apple, at konkurrenter som Google, Facebook og Microsoft allerede bruger sammenligninger af billeder fra brugerne med CSAM-databasen. Apple kommer først med nu, da de “ville sikre brugernes privatliv ved ikke at analysere selve billederne”.
Det har dog ikke beroliget kritikerne, der blandt andet tæller den verdenskendte whistleblower Edward Snowden, der har kaldt iPhone for ”SpyPhone.
Der er også sendt et åbent brev til Apple, som næsten 8.000 bekymrede personer og organisationer har skrevet under. Opfordringen er, at Apple skal stoppe scanningen.
Ingen kritikere er imod Apples forsøg på at bekæmpe børnepornografisk materiale, men de mener, at funktionen gør, at indholdet på telefonerne ikke længere er privat – og at systemet potentielt kan udnyttes til scanne efter andre ting som følge af politisk pres fra eksempelvis myndigheder eller regeringer.
Craig Federighi afviser overfor WSJ, at funktionen er en bagdør til brugerens iPhone eller data.
VIL DU OPDATERES? ⚡️ Vi vender dig tre gange om ugen de seneste technyheder i indbakken. Blandt alle tilmeldte finder vi hver måned en vinder af en powerbank fra GreyLime. Tilmeld dig gratis her! Afmeld når du har lyst. Læs mere om konkurrencen her.
Mere til historien
Apple introducerer også en funktion i iMessage, der skal beskytte børn mød nøgenhed. Hvis et barn modtager et nøgenbillede, gøres billedet utydeligt. Vælger barnet at se billedet, bliver forældrene informeret. Funktionen virker med ”on device machine learning”.