La scusa è quella di intrappolare i pedofili e i predatori sessuali, ma nel processo anche il 100% delle tue foto deve essere scansionato. Una volta aperta la porta di sorveglianza, qualsiasi altro tipo di foto può essere mirato per qualsiasi altro scopo. Ciò potrebbe includere proteste politiche, informazioni sul rilevamento della posizione, profili psicologici, ad es. ciò di cui stai scattando foto, ecc. ⁃ TN Editor
Apple segnalerà le immagini di sfruttamento minorile caricate su iCloud negli Stati Uniti alle forze dell'ordine, la società ha detto giovedì.
Il nuovo sistema rileverà immagini chiamate Child Sexual Abuse Material (CSAM) utilizzando un processo chiamato hashing, in cui le immagini vengono trasformate in numeri univoci che corrispondono a quell'immagine.
Apple ha iniziato a testare il sistema giovedì, ma la maggior parte degli utenti iPhone statunitensi non ne farà parte fino a quando un aggiornamento di iOS 15 entro la fine dell'anno, ha affermato Apple.
La mossa porta Apple in linea con altri servizi cloud che già scansionano i file degli utenti, spesso utilizzando sistemi di hashing, alla ricerca di contenuti che violano i loro termini di servizio, comprese le immagini di sfruttamento minorile.
Rappresenta anche un test per Apple, che afferma che il suo sistema è più privato per gli utenti rispetto ai precedenti approcci per eliminare le immagini illegali di abusi sessuali su minori, perché utilizza una crittografia sofisticata sia sui server Apple che sui dispositivi degli utenti e non esegue la scansione di immagini reali, solo hash.
Ma molti utenti sensibili alla privacy si ritraggono ancora dal software che notifica ai governi i contenuti su un dispositivo o nel cloud e potrebbero reagire negativamente a questo annuncio, soprattutto perché Apple ha difeso a gran voce la crittografia dei dispositivi e opera in paesi con meno protezioni vocali rispetto al noi
Le forze dell'ordine di tutto il mondo hanno anche fatto pressioni su Apple per indebolire la sua crittografia per iMessage e altri servizi software come iCloud per indagare sullo sfruttamento dei minori o sul terrorismo. L'annuncio di giovedì è un modo per Apple di affrontare alcuni di questi problemi senza rinunciare ad alcuni dei suoi principi ingegneristici sulla privacy degli utenti.
Come funziona
Prima che un'immagine venga archiviata in iCloud di Apple, Apple confronta l'hash dell'immagine con un database di hash fornito dal National Center for Missing and Exploited Children (NCMEC). Quel database sarà distribuito nel codice di iOS a partire da un aggiornamento a iOS 15. Il processo di corrispondenza viene eseguito sull'iPhone dell'utente, non nel cloud, ha affermato Apple.
Se Apple rileva un certo numero di file in violazione in un account iCloud, il sistema caricherà un file che consente ad Apple di decrittografare e vedere le immagini su quell'account. Una persona esaminerà manualmente le immagini per confermare se esiste o meno una corrispondenza.
Apple sarà in grado di rivedere solo le immagini che corrispondono a contenuti già noti e segnalati a questi database: ad esempio, non sarà in grado di rilevare le foto dei genitori dei loro figli nella vasca da bagno, poiché queste immagini non faranno parte di la banca dati NCMEC.
Se la persona che esegue la revisione manuale conclude che il sistema non ha commesso un errore, Apple disabiliterà l'account iCloud dell'utente e invierà una segnalazione a NCMEC o avviserà le forze dell'ordine, se necessario. Gli utenti possono presentare ricorso ad Apple se ritengono che il loro account sia stato segnalato per errore, ha affermato un rappresentante di Apple.
Il sistema funziona solo su immagini caricate su iCloud, che gli utenti possono disattivare, ha affermato Apple. Le foto o altre immagini su un dispositivo che non sono state caricate sui server Apple non faranno parte del sistema.
Buona. È ora che la gente si svegli a quello che è successo per tutto il tempo. L'unico cambiamento ora è che inizieranno a dare la caccia alle persone per creare un precedente. Ma se pensi che non sappiano cosa c'è nel tuo icloud o sul tuo telefono, non sei molto intelligente. Hanno creato la cosa. E ho lavorato nelle telecomunicazioni, FYI. Potrei semplicemente salire al piano superiore e vedere la sala server. All'epoca, a quanto pare, l'FBI voleva entrare lì ... perché i telefoni erano di un tipo particolare che si supponeva fosse molto utile per i commercianti e non di... Per saperne di più »
La migliore risposta è utilizzare un cloud storage di terze parti che non ha interesse nei tuoi affari privati. Sono là fuori ma devi cercarli. Puoi crittografare i tuoi contenuti con loro. Basta sapere che tutti i contenuti crittografati non possono essere recuperati dall'azienda se si perde la password.
Ad essere onesti, non hai idea di chi siano queste aziende. Ho scoperto, facendo ricerche, che tutte le società di "privacy" hanno finanziamenti piuttosto loschi. E questo è senza eccezioni.
[…] Leggi di più: Apple inizia a scansionare tutte le foto e le immagini personali caricate su iCloud […]
Meglio non fare foto a neonati o bambini che fanno il bagno o la doccia….sei un pervertito se lo fai adesso, immagino.
[…] Apple inizia a scansionare tutte le foto e le immagini personali caricate su iCloud […]