Nu reagerer Apple – “scanner ikke iPhone-billeder”

Apple beklager forvirringen om funktionen, hvor brugernes billeder bliver scannet for seksuelt misbrug af børn, når de overføres til iCloud.

Craig Federighi, Apple
Craig Federighi, Senior Vice President for Software i Apple, afviser i et interview med Wall Street Journal, at Apple scanner dine billeder på iPhone. Funktionen er blevet misforstået, lyder det (Foto: MereMobil.dk / Apple)

Apple mener, at annonceringen af funktionen, der skal tjekke iPhone-billeder for misbrug af børn, kendt som børnepornografi, er ”misforstået bredt”.

– ”Vi ville ønske, at budskabet var kommet lidt mere klart frem,” har Apples softwarechef Craig Federighi udtalt til The Wall Street Journal.

Scanner ikke billeder på iPhone

I interviewet lægger Craig Federighi vægt på, at systemet ikke scanner indhold på brugernes telefoner.

Det er først i det øjeblik, at et foto sendes til iCloud, at systemet undersøger, om billedet er kendt i databasen CSAM, som US National Center for Missing and Exploited Children (NCMEC) står bag.

CSAM indeholder digitale fingeraftryk af kendte ulovlige billeder af børn der mishandles. I scanningen tjekkes, om der er et digitalt match mellem billedet, der uploades, og de kendte billeder i CSAM-databasen.

Systemet analyserer, ifølge Apple, kun de digitale fingeraftryk og ”ser” ikke på selve billedet.

Ét match lukker ikke din Apple-konto

Craig Federighi fortæller i interviewet med WSJ, at Apple ikke lukker din iCloud-konto eller Apple ID, ved et enkelt match.

Der skal ”omkring 30 matches til” inden kontoen bliver markeret til gennemgang. Her vil en medarbejder tjekke de billeder, som har det digitale fingeraftryk. Bekræfter medarbejderen, at der er tale om ulovlige billeder, bliver de relevante myndigheder informeret.

Ifølge Apple kan brugerne stadig have billeder af deres børn ved stranden eller i badekarret på deres telefoner og i iCloud.

SÅDAN VIRKER SCANNINGEN: Analysen, der sker lokalt på telefonen, foretages med teknologien “hashes”. Et “hash” er en unik talkodeberegning for hvert billede. På telefonen findes en database (CSAM) med hashes på billeder, der tidligere er kategoriseret som børneporno. Når et lokalt billede, på vej til iCloud, har et match med en hash-talkode fra databasen, bliver får billedet en “markering”. Når der er omkring 30 matches, vil en medarbejder gennemgå de markerede billeder. Er billederne kendt i CSAM-databasen bliver myndighederne informeret.

Apple: Andre gør det samme

Som en forklaring af den nye funktion, der i første omgang åbner i USA, siger Apple, at konkurrenter som Google, Facebook og Microsoft allerede bruger sammenligninger af billeder fra brugerne med CSAM-databasen. Apple kommer først med nu, da de “ville sikre brugernes privatliv ved ikke at analysere selve billederne”.

Det har dog ikke beroliget kritikerne, der blandt andet tæller den verdenskendte whistleblower Edward Snowden, der har kaldt iPhone for ”SpyPhone.

Der er også sendt et åbent brev til Apple, som næsten 8.000 bekymrede personer og organisationer har skrevet under. Opfordringen er, at Apple skal stoppe scanningen.

Ingen kritikere er imod Apples forsøg på at bekæmpe børnepornografisk materiale, men de mener, at funktionen gør, at indholdet på telefonerne ikke længere er privat – og at systemet potentielt kan udnyttes til scanne efter andre ting som følge af politisk pres fra eksempelvis myndigheder eller regeringer.

Craig Federighi afviser overfor WSJ, at funktionen er en bagdør til brugerens iPhone eller data.

VIL DU OPDATERES? ⚡️ Vi vender dig tre gange om ugen de seneste technyheder i indbakken. Blandt alle tilmeldte finder vi hver måned en vinder af en powerbank fra GreyLime. Tilmeld dig gratis her! Afmeld når du har lyst. Læs mere om konkurrencen her.


Mere til historien

Apple introducerer også en funktion i iMessage, der skal beskytte børn mød nøgenhed. Hvis et barn modtager et nøgenbillede, gøres billedet utydeligt. Vælger barnet at se billedet, bliver forældrene informeret. Funktionen virker med ”on device machine learning”.

Her er Apples nye Password-app – vi har prøvet den

PRØVEKØRT: Vi har set nærmere på Apples nye Password-app, som kommer i efteråret 2024.

(mere…)
Den næste iPhone SE får Apple 5G-modem

RYGTE: iPhone SE 4 vil være den første med Apples egen 5G-modem.

(mere…)
iPhone SE 4 vil bruge samme bagside som iPhone 16

RYGTE: Den kommende iPhone SE 4 vil bruge samme bagside som den kommende iPhone 16.

(mere…)
HomePod Mini fås i en ny farve

Apple er klar med en lille lancering her i sommerferien - en ny farve af HomePod Mini.

(mere…)
Nu kan du teste den næste store iPhone-opdatering

Apple har udgivet den første public beta af iOS 18. Du kan hente den og selv teste på din iPhone.

(mere…)
Smartere Siri kommer først i 2025

RYGTE: Hvis du venter spændt på en smartere Siri, skal du nok vente noget tid endnu.

(mere…)
Subscribe - få opdateringer på tråden
Notify of
47 Kommentarer
Ældste
Nyeste
Inline Feedbacks
Se alle kommentarer
Kom et skridt foran
Vil du være fuldt opdateret på de seneste nyheder, anmeldelser samt trends og tendenser i mobilbranchen? Få de seneste vurderinger først i vores nyhedsbrev.
Gå til tilmeldingssiden
Vi dækker den bærbare teknologi – smartphones, tablets, smartwatches, forbrugerstof og bringer baggrundshistorier og guides. MereMobil.dk har en ambition om at være den primære kilde at gå til, hvis du ønsker viden om branchen, der hver dag har enorm betydning for os alle.
© 2024 MereMobil.dk. Alle rettigheder forbeholdt.
magic-wandarrow-right-circle
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram