Apple recua de backdoor nos celulares e adia rastreamento de abuso infantil
Sob fortes críticas, a Apple recuou, ao menos por enquanto, do lançamento dos Recursos de Segurança Infantil que anunciou em agosto. Trata-se de uma medida voltada ao combate à pornografia infantil, mas que tecnicamente é baseada na varredura de fotos armazenadas em celulares ou na nuvem da empresa.
“No mês passado, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de material de abuso sexual infantil”, disse a empresa em comunicado. “Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.”
Segundo o que foi anunciado, a Apple planejava se valer de dois recursos a serem instalados todos os dispositivos. Um é de digitalização de todas as fotos à medida que são carregadas no iCloud Photos para ver se elas correspondem a imagens armazenadas no banco de dados de material de abuso sexual infantil (CSAM), mantido pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA.
A reação de criptógrafos a defensores da privacidade e até do ex-espião Edward Snowden foi imediata, em grande parte ligada à decisão da Apple não apenas de escanear fotos do iCloud para CSAM, mas também de verificar se há correspondências em todos os iPhones ou iPads.