Pular para o conteúdo
Início » Blog » Apple deve começar a verificar as fotos do iPhone e iCloud em busca de imagens de abuso infantil

Apple deve começar a verificar as fotos do iPhone e iCloud em busca de imagens de abuso infantil

  • por

A Apple anunciou que vai começar a testar um novo sistema para combinar fotos automaticamente em iPhones e enviar contas do iCloud a um banco de dados de imagens de abuso sexual infantil e alertar as autoridades conforme necessário.

O novo serviço vai transformar fotos em dispositivos em um conjunto ilegível de hashes – ou números complexos – armazenados nos dispositivos dos usuários, explicou a empresa em uma entrevista coletiva. Esses números serão comparados com um banco de dados de hashes fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas.

Ao dar esse passo, a Apple está seguindo algumas outras grandes empresas de tecnologia, como Google e Facebook. Mas também está tentando encontrar um equilíbrio entre segurança e privacidade, a última das quais a Apple enfatizou como um ponto de venda central para seus dispositivos.

Alguns defensores da privacidade foram rápidos em levantar preocupações sobre o esforço.

“A Apple está substituindo seu sistema de mensagens criptografadas de ponta a ponta padrão da indústria por uma infraestrutura para vigilância e censura, que será vulnerável a abusos e aumento de escopo não apenas nos Estados Unidos, mas em todo o mundo”, disse Greg Nojeim, co-diretor do Projeto de Segurança e Vigilância do Centro para Democracia e Tecnologia. “A Apple deve abandonar essas mudanças e restaurar a fé de seus usuários na segurança e integridade de seus dados em dispositivos e serviços Apple.”

Em um post em seu site descrevendo as atualizações, a empresa disse: “O método da Apple…é projetado tendo a privacidade do usuário em mente.” A Apple enfatizou que a ferramenta não “escaneia” as fotos do usuário e apenas as imagens do banco de dados serão incluídas como correspondências. (Isso deve significar que a foto inofensiva de um usuário de seu filho na banheira não será sinalizada.)

A Apple também disse que o dispositivo criará um “voucher de segurança” duplamente criptografado – um pacote de informações enviado aos servidores – que é codificado em fotos. Assim que houver um certo número de vouchers de segurança sinalizados, a equipe de revisão da Apple será alertada. Em seguida, ele decodificará o voucher, desativará a conta do usuário e alertará o Centro Nacional para Crianças Desaparecidas e Exploradas, que pode informar as autoridades. Aqueles que acreditam que suas contas foram sinalizadas por engano podem entrar com um recurso para que sejam reintegradas.

O objetivo da Apple é garantir que imagens idênticas e visualmente semelhantes resultem no mesmo hash, mesmo que tenha sido ligeiramente cortado, redimensionado ou convertido de colorido para preto e branco.

“A realidade é que a privacidade e a proteção da criança podem coexistir”, disse John Clark, presidente e CEO do Centro Nacional para Crianças Desaparecidas e Exploradas, em um comunicado. “Aplaudimos a Apple e esperamos trabalhar juntos para tornar este mundo um lugar mais seguro para as crianças.”

O anúncio faz parte de um esforço maior da empresa em torno da segurança infantil. A Apple disse na quinta-feira que uma nova ferramenta de comunicação também avisará os usuários menores de 18 anos quando eles estão prestes a enviar ou receber uma mensagem com uma imagem explícita. A ferramenta, que deve ser ativada no Family Sharing, usa aprendizado de máquina no dispositivo para analisar anexos de imagem e determinar se uma foto é sexualmente explícita. Os pais com filhos menores de 13 anos também podem ativar um recurso de notificação caso uma criança esteja prestes a enviar ou receber uma imagem de nudez. A Apple disse que não terá acesso às mensagens.

Essa ferramenta estará disponível como uma futura atualização de software, de acordo com a empresa.

Deixe um comentário

O seu endereço de e-mail não será publicado.