Site Overlay

A Apple confirma que as fotos existentes do iCloud serão verificadas quanto a abuso infantil

A Apple confirma que as fotos existentes do iCloud serão verificadas quanto a abuso infantil

A Apple só pode começar a escanear as bibliotecas do iCloud Photos em busca de imagens de abuso infantil em potencial no final de 2021, a empresa confirmou, embora o polêmico sistema não se limite a novos uploads. Anunciado na semana passada, o próximo recurso contará com a IA para sinalizar automaticamente possíveis materiais de abuso sexual infantil (CSAM), em um movimento que deixou alguns defensores da privacidade preocupados.

Parte da polêmica veio da decisão da Apple de anunciar dois lançamentos voltados para a proteção infantil ao mesmo tempo. Além do sistema de digitalização de fotos iCloud, a Apple também oferecerá aos pais a capacidade de ter imagens potencialmente ofensivas borradas automaticamente nas conversas de mensagens de seus filhos.

A digitalização e o reconhecimento ocorrerão no próprio telefone, em um processo que parece ter sido mal compreendido em alguns setores. Para a digitalização de CSAM de fotos do iCloud, a Apple usará hashes ilegíveis – sequências de números que representam imagens CSAM conhecidas – para compará-las às imagens que um usuário escolhe enviar para o serviço de galeria em nuvem.

“Este conjunto de hashes de imagem é baseado em imagens adquiridas e validadas para serem CSAM por organizações de segurança infantil”, explicou a Apple em um novo FAQ sobre o sistema. “Usando novos aplicativos de criptografia, a Apple é capaz de usar esses hashes para aprender apenas sobre contas iCloud Photos que estão armazenando coleções de fotos que correspondem a essas imagens CSAM conhecidas e, então, só é capaz de aprender sobre fotos que são CSAM conhecidas, sem aprender ou ver outras fotos. ”

De acordo com a Apple, o sistema só entrará em operação no final deste ano, quando iOS 15, iPadOS 15, watchOS 8 e macOS Monterey forem lançados. No entanto, parece que isso não significa que as imagens enviadas para o iCloud Photos entre agora e então, ou mesmo enviadas para o serviço antes do anúncio do novo sistema, não serão digitalizadas.

Imagens que já foram enviadas para o iCloud Photos também serão processadas, disse um representante da Apple à CNBC hoje. No entanto, isso ainda dependerá da digitalização local no iPhone. Bibliotecas de fotos não marcadas para upload para o Fotos do iCloud não serão examinadas quanto ao conteúdo CSAM pela nova ferramenta e “o sistema não funciona para usuários que têm o Fotos do iCloud desativado”, acrescenta a empresa.

Quanto às preocupações de que a mesma abordagem possa ser usada para atingir alguém com alegações fraudulentas, a Apple parece confiante de que isso é impossível. A empresa não adiciona hashes de imagem CSAM existentes, destaca, com esse banco de dados criado e validado por especialistas externamente. “O mesmo conjunto de hashes é armazenado no sistema operacional de cada usuário de iPhone e iPad”, acrescenta a Apple, “portanto, ataques direcionados apenas contra indivíduos específicos não são possíveis sob nosso projeto”.

Embora o sistema possa ser projetado para detectar conteúdo CSAM automaticamente, ele não será capaz de fazer relatórios diretamente para as autoridades. Embora “a Apple seja obrigada a relatar quaisquer ocorrências de que tenhamos conhecimento às autoridades competentes”, destaca a empresa, qualquer ocorrência sinalizada será primeiro verificada por um moderador humano. Somente após o processo de revisão confirmar a correspondência, um relatório será feito.

Deixe um comentário

O seu endereço de e-mail não será publicado.