Federighi, da Apple, admite "retrospectiva", enquanto os efeitos colaterais da proteção infantil no iPhone perduram - Mundotech
Site Overlay

Federighi, da Apple, admite “retrospectiva”, enquanto os efeitos colaterais da proteção infantil no iPhone perduram

Federighi, da Apple, admite “retrospectiva”, enquanto os efeitos colaterais da proteção infantil no iPhone perduram

Um importante executivo da Apple admitiu que sua grande revelação de novas ferramentas de proteção infantil poderia ter ocorrido de maneira mais tranquila, com o chefe de software Craig Federighi admitindo que a confusão “em retrospecto” era inevitável. A Apple anunciou planos para escanear uploads de fotos do iCloud em busca de imagens ilegais de crianças, bem como construir novas proteções de catação no iMessage, no início de agosto, e foi recebida imediatamente por defensores da privacidade e outros.

Os dois sistemas, explicou a Apple, seriam focados na proteção de usuários mais jovens e crianças, embora funcionassem de maneiras diferentes. Por outro lado, o iCloud Photos digitalizaria imagens de backup em busca de materiais de abuso sexual infantil (CSAM), comparando-os com conteúdo ilegal conhecido. Se isso fosse detectado, após uma revisão humana, o usuário poderia ser denunciado às autoridades.

Enquanto isso, no aplicativo Mensagens da Apple, os pais poderiam ativar novos filtros para usuários mais jovens. Se alguém posteriormente enviar a eles uma imagem que foi sinalizada no sistema como sendo explícita, essa imagem será borrada e será oferecida orientação sobre como lidar com possíveis situações de catação. Se a criança ainda abrisse a imagem, opcionalmente haveria um alerta enviado aos pais sobre isso.

Embora a Apple pudesse ter esperado aplausos pelas mudanças, o que ela recebeu foi um grau considerável de suspeita sobre a tecnologia. Foi levantada a preocupação sobre se os governos poderiam exigir a expansão da digitalização de fotos do iCloud, apresentando outras imagens além do CSAM que poderiam ser usadas para rastrear oposição política, manifestantes, jornalistas e muito mais. A tecnologia poderia ser uma ladeira escorregadia, argumentou-se, uma vez que a Apple demonstrou que era teoricamente possível.

A Apple recuou no início desta semana, com um novo FAQ tentando resolver os temores . Ele resistiria à pressão para expandir a varredura além de sua finalidade atual, insistiu a Apple, e proteções foram incorporadas para evitar sinalização e relatórios acidentais. Mesmo assim, semanas após o anúncio, está claro que o furor não vai se acalmar tão cedo.

Em declarações ao WSJ , Craig Federighi, vice-presidente sênior de engenharia de software da Apple, admitiu que o lançamento poderia ter sido melhor. Ainda assim, ele classifica isso como um mal-entendido entre o público, em vez de a Apple ser a principal culpada.

“Está realmente claro que muitas mensagens foram confundidas muito mal em termos de como as coisas eram entendidas”, disse Federighi. “Gostaríamos que isso tivesse ficado um pouco mais claro para todos, porque nos sentimos muito positivos e fortemente sobre o que estamos fazendo.”

Contrariamente às preocupações de que isso fosse um impacto potencial na privacidade do usuário, Federighi argumenta que a tecnologia – que é executada localmente nos dispositivos dos usuários, em vez de na nuvem, usando os chamados dados “hash” de imagens CSAM fornecidas por terceiros, em vez do que as próprias imagens – é de fato mais benéfico para a privacidade em geral. Haverá “vários níveis de auditabilidade”, diz ele, e o sistema será ajustado para que, digamos, fotos inocentes que um pai possa tirar de uma criança na banheira não sejam sinalizadas como pornografia infantil.

“Se e somente se você atingir um limite de algo na ordem de 30 imagens de pornografia infantil conhecidas, só então a Apple saberá alguma coisa sobre sua conta e saberá alguma coisa sobre essas imagens e, nesse ponto, só saberá sobre essas imagens, não sobre qualquer uma de suas outras imagens ”, explica ele.

Haverá várias organizações de segurança infantil responsáveis ​​por agrupar as listas de imagens em hash com as quais os uploads do Fotos do iCloud são comparados, disse o chefe do software. Um auditor independente também verificará se o banco de dados contém apenas essas imagens. Mesmo assim, não são apenas observadores externos expressando preocupações; de acordo com um relatório da Reuters , alguns funcionários da Apple também têm se manifestado contra o sistema internamente.

O mais perto que Federighi chega de uma admissão de que a estratégia da Apple pode ser problemática é uma referência ao anúncio, não ao seu conteúdo. “Em retrospectiva”, diz ele, “apresentar esses dois recursos ao mesmo tempo foi uma receita para esse tipo de confusão. Ao liberá-los ao mesmo tempo, as pessoas os conectaram tecnicamente e ficaram muito assustados: O que está acontecendo com minhas mensagens? A resposta é … nada está acontecendo com suas mensagens. ”

Os novos recursos entrarão no ar no final do ano, com a chegada do iOS 15, iPadOS 15, watchOS 8 e macOS Monterey. A verificação de upload de fotos do iCloud só ocorrerá se os usuários tiverem habilitado backups para o serviço; as imagens salvas localmente não serão digitalizadas. No entanto, todas as imagens existentes marcadas para backup também serão verificadas , confirmou a Apple.

Deixe um comentário