Site Overlay

WhatsApp explode tecnologia de “vigilância” de abuso infantil “muito preocupante” da Apple [atualização]

WhatsApp explode tecnologia de “vigilância” de abuso infantil “muito preocupante” da Apple [atualização]

O WhatsApp criticou o novo sistema da Apple para escanear fotos na busca por abuso sexual infantil como “muito preocupante”, após o anúncio inesperado de que a empresa de Cupertino usaria IA para detectar imagens ilegais e muito mais. Revelado ontem , o novo recurso de segurança infantil vai mascarar as fotos compartilhadas por meio de Mensagens, além de rastrear esse conteúdo carregado no iCloud Photos.

“Este programa é ambicioso e proteger as crianças é uma responsabilidade importante”, disse a Apple sobre o anúncio. Para usuários mais jovens do iPhone e de outros dispositivos da Apple, isso significa que a análise de imagem é usada para detectar qualquer imagem inadequada enviada ou recebida.

Em vez de exibi-los na interface de bate-papo, a imagem ficará em branco por padrão com um aviso de que “isso pode ser confidencial”. O processamento da análise de imagem ocorre no próprio dispositivo, apontou a Apple, como um aceno para a privacidade individual. Ainda assim, embora proteger as crianças seja reconhecido como uma coisa boa, nem todos estão impressionados com a forma como a Apple está decidindo fazer isso.

O WhatsApp, por exemplo, tem se manifestado abertamente em seu desacordo com o sistema. “Essa abordagem introduz algo muito preocupante no mundo”, disse Will Cathcart, chefe do WhatsApp, ao FT . “Este é um sistema de vigilância construído e operado pela Apple que poderia facilmente ser usado para escanear conteúdo privado em busca de qualquer coisa que eles ou um governo decidam controlar. É preocupante vê-los agir sem envolver especialistas. ”

Apesar dos pedidos de alguns para uma aplicação mais ampla de tal sistema em outras plataformas de mensagens, Cathcart insistiu que o aplicativo de propriedade do Facebook não estaria seguindo o exemplo. “Não vamos adotar no WhatsApp”, confirmou.

Entre as preocupações está que, embora a tecnologia possa começar como um sistema de proteção infantil, com o tempo ela poderá ser cooptada pela aplicação da lei para outros fins. Isso pode incluir o monitoramento de dissidentes e manifestantes em países com governos de regime. Atualmente, as Mensagens – como o WhatsApp – são criptografadas de ponta a ponta, o que significa que nem mesmo a própria empresa pode ver o conteúdo que está sendo compartilhado.

Este novo sistema não mudará isso. Em vez disso, a Apple usará dados do banco de dados do Child Sexual Abuse Material (CSAM) para criar hashes de imagem, que podem ser comparados a fotos compartilhadas nos próprios dispositivos dos usuários. A empresa afirma que o sistema tem menos de uma chance em um trilhão por ano de que uma conta possa ser erroneamente sinalizada como compartilhando o conteúdo.

O Siri e o Search em dispositivos Apple também estão sendo atualizados e poderão fornecer mais informações sobre como lidar com situações potencialmente perigosas. Os novos recursos serão lançados como parte do iOS 15, iPadOS 15, watchOS 8 e macOS Monterey no final de 2021.

Atualização: em um tópico do Twitter , Cathcart expandiu suas preocupações com o sistema da Apple:

“Eu li a informação que a Apple divulgou ontem e estou preocupado. Acho que essa é a abordagem errada e um revés para a privacidade das pessoas em todo o mundo. As pessoas perguntam se vamos adotar esse sistema para o WhatsApp. A resposta é não.

O material de abuso sexual infantil e os agressores que o traficam são repugnantes, e todos querem que esses agressores sejam pegos.

Trabalhamos muito para banir e denunciar as pessoas que trafegam nele com base em medidas apropriadas, como facilitar para as pessoas denunciarem quando ele é compartilhado. Reportamos mais de 400.000 casos ao NCMEC no ano passado a partir do WhatsApp, tudo sem quebrar a criptografia.

A Apple há muito tempo precisa fazer mais para combater o CSAM, mas a abordagem que está adotando apresenta algo muito preocupante para o mundo. Em vez de se concentrar em tornar mais fácil para as pessoas relatarem o conteúdo compartilhado com elas, a Apple criou um software que pode escanear todas as fotos privadas do seu telefone – até mesmo fotos que você não compartilhou com ninguém. Isso não é privacidade.

Temos computadores pessoais há décadas e nunca houve uma ordem para verificar o conteúdo privado de todos os desktops, laptops ou telefones em todo o mundo em busca de conteúdo ilegal. Não é assim que funciona a tecnologia construída em países livres.

Este é um sistema de vigilância construído e operado pela Apple que poderia facilmente ser usado para escanear conteúdo privado em busca de qualquer coisa que eles ou um governo decidam controlar. Os países onde os iPhones são vendidos terão definições diferentes sobre o que é aceitável.

Este sistema será usado na China? Que conteúdo eles considerarão ilegal lá e como saberemos? Como eles gerenciarão as solicitações de governos em todo o mundo para adicionar outros tipos de conteúdo à lista para digitalização?

Este software de digitalização em execução no seu telefone pode ser à prova de erros? Os pesquisadores não tiveram permissão para descobrir. Por que não? Como saberemos quantas vezes os erros estão violando a privacidade das pessoas?

O que acontecerá quando as empresas de spyware encontrarem uma maneira de explorar esse software? Relatórios recentes mostraram o custo das vulnerabilidades no software iOS no estado em que se encontram. O que acontece se alguém descobrir como explorar esse novo sistema?

Existem tantos problemas com essa abordagem, e é preocupante vê-los agir sem envolver especialistas que há muito documentam suas preocupações técnicas e mais amplas com isso.

A Apple disse uma vez: “Acreditamos que seria do interesse de todos recuar e considerar as implicações …”

… ”Seria errado o governo nos forçar a construir uma porta dos fundos para nossos produtos. E, em última análise, tememos que essa demanda minaria as próprias liberdades e liberdades que nosso governo deve proteger. ” Essas palavras foram sábias na época e merecem atenção aqui agora. ”

Deixe um comentário

O seu endereço de e-mail não será publicado.