Apple detalha como vai vasculhar imagens de abuso infantil sem violar privacidade

Foto: Reprodução/Apple

Após oito dias sob pressão pública, a Apple detalhou em documento publicado na sexta-feira (13), como será a ferramenta que vasculha a biblioteca de imagens na nuvem dos usuários em busca de pornografia infantil – em caso de alerta vermelho, a gigante da tecnologia irá entrar em contato com as autoridades. O recurso deve chegar aos celulares dos americanos até o fim deste ano para depois começar a ser implementado em outros países.

Afirmando que o objetivo da tecnologia é “detectar coleções ilegais de imagens de abuso infantil nas bibliotecas de imagens nos servidores da Apple”, a empresa afirma que a solução diz respeito apenas a conteúdos enviados na nuvem: o iCloud, rival do Google Drive e Dropbox, por exemplo.

Ao contrário dos concorrentes, no entanto, a empresa frisa que não escaneia todas as fotos armazenadas na biblioteca em nuvem, mas sim somente aquelas que forem detectadas como ilegais. Para saber o que é ilegal ou não, a companhia usa ao menos duas bases de imagens oferecidas pelas autoridades responsáveis dos Estados Unidos, de modo que os algoritmos possam fazer a comparação.

Ao detectar ao menos 30 dessas possíveis imagens ilegais na conta de um usuário, a Apple faz uma verificação humana das fotografias para checar se o algoritmo está certo ou errado. No caso de os conteúdos serem de pornografia infantil, a empresa quebra o sigilo do usuário e faz a denúncia junto às autoridades

“Nós, que nos consideramos os líderes em privacidade, vemos o que estamos fazendo um avanço no estado da arte em privacidade, tornando o mundo um lugar mais privado”, declarou em entrevista nesta sexta-feira ao jornal americano The Wall Street Journal o chefe de engenharia de software da companhia, Craig Federighi.

Adicionalmente, a Apple afirma que vai contratar uma auditoria externa para revisar o algoritmo da empresa, conforme memorando da companhia enviado aos funcionários e obtido pela agência de notícias Bloomberg.

Por conta da ferramenta, a Apple tem enfrentado críticas de especialistas em privacidade que consideram que a medida pode ser deturpada por governos autoritários para impor censura. Em junho passado, a companhia foi acusada de censurar 27 aplicativos LGBT na China e em outras 150 lojas de aplicativos pelo mundo, algo negado pela empresa.

Funcionários pediram esclarecimentos

De acordo com a agência Reuters, trabalhadores da Apple publicaram mais de 800 mensagens em um grupo interno da companhia no Slack (plataforma de comunicação altamente adotada por equipes em todo o mundo durante o home office) em busca de esclarecimentos da própria companhia, receosos de que a ferramenta poderia ser usada por governos mal intencionados para achar materiais que justificassem censura ou prisões.

Do grupo de funcionários, apenas uma parte integrava a equipe de privacidade, responsável pelas medidas contra abuso infantil. Segundo a Reuters, esses funcionários defenderam a tecnologia desenvolvida, dizendo que se tratava de uma medida razoável frente à pressão que a empresa sofria para combater material ilegal na plataforma.

- PUBLICIDADE -