Site Overlay

Digitalização de CSAM de segurança infantil da Apple para expansão por país

Digitalização de CSAM de segurança infantil da Apple para expansão por país

Os esforços de privacidade da Apple muito elogiados atingiram uma nota amarga alguns dias atrás, quando ela anunciou um novo recurso destinado a proteger as crianças, relatando conteúdo ilegal que foi armazenado na conta de um usuário do iCloud Photos. Embora aqueles em ambos os lados do argumento concordem que as crianças devem ser protegidas pela repressão ao Material de Abuso Sexual Infantil ou CSAM, os críticos argumentam que este sistema pode ser potencialmente abusado por outros governos. A Apple agora esclarece que não será o caso, pois considerará a implementação da detecção de CSAM caso a caso por país.

Os defensores da privacidade rotularam sem surpresa o novo recurso de escaneamento CSAM da Apple como spyware ou software de vigilância por causa de como ele poderia violar a privacidade de uma pessoa, apesar das garantias da Apple. Na raiz da controvérsia está o método de detecção da presença de conteúdo CSAM em fotos, que envolve o uso de IA e aprendizado de máquina para evitar que humanos digitalizem as fotos manualmente. Embora isso em si seja uma forma de proteção à privacidade, também abre a porta para abusos e possíveis violações de privacidade.

Os críticos argumentam que o sistema de aprendizado de máquina pode ser alimentado com outros dados, intencionalmente ou acidentalmente, que podem ser usados ​​para detectar e relatar conteúdo não relacionado ao CSAM. A tecnologia, por exemplo, poderia ser usada como um sistema de vigilância em massa para ativistas em países com governos mais repressivos. A Apple já indicou sua intenção de expandir sua detecção de CSAM para iPhones e iPads em todo o mundo, aumentando a polêmica.

A Apple já esclareceu que não fará um lançamento geral sem considerar as especificidades das leis de cada mercado. Isso poderia fornecer algum conforto aos cidadãos da China, Rússia e outros países que têm fortes leis de censura. A detecção de CSAM será implementada primeiro nos Estados Unidos, onde a Apple há muito é uma forte aliada da privacidade.

Isso pode não satisfazer os defensores da privacidade, no entanto, pois eles veem o próprio sistema como sujeito a abusos. A Apple denunciou repetidamente a criação de backdoors em sistemas de segurança fortes, mas agora está sendo criticada por criar exatamente isso, não importa quão estreito ou bem planejado seja esse backdoor.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *