Facebook remove 8,7 milhões de imagens com nudez infantil

Rede social disse que desenvolveu um novo software para sinalizar automaticamente possíveis fotos sexualizadas de crianças

por Nathália Guimarães qua, 24/10/2018 - 12:18
Paulo Uchôa/LeiaJáImagens/Arquivo Paulo Uchôa/LeiaJáImagens/Arquivo

Os moderadores do Facebook removeram 8,7 milhões de imagens de nudez infantil nos últimos três meses. A rede social disse que desenvolveu um novo software para sinalizar automaticamente possíveis fotos sexualizadas de crianças. O serviço começou a funcionar ano passado.

Das 8,7 milhões de imagens removidas, 99% foram retiradas da rede social antes que qualquer usuário do Facebook as denunciasse, disse a empresa.

O software do Facebook identifica quando uma imagem contém crianças e nudez e alerta os moderadores. Antes da criação deste software, o Facebook estava dependente das denúncias de usuários ou dos filtros de nudez para identificar imagens comprometedoras de menores.

A empresa informou que pretende implementar a ferramenta também no Instagram. Também revelou que estava aumentando o número de moderadores que revisam esse conteúdo e teria cerca de 20 mil pessoas trabalhando nessa área até o final do ano.

LeiaJá também

--> Metade dos americanos não sabe quem é dono do WhatsApp

COMENTÁRIOS dos leitores