Facebook Inc dijo el miércoles que la compañía durante el último trimestre eliminó 8.7 millones de imágenes de usuarios de desnudos infantiles con la ayuda de un software previamente no revelado que marca automáticamente esas fotos.
La herramienta de aprendizaje automático implementada en el último año identifica imágenes que contienen desnudos y un niño, lo que permite un mayor cumplimiento de la prohibición de Facebook en las fotos que muestran a los menores en un contexto sexualizado.
Un sistema similar también revelado el miércoles localiza los usuarios que se hacen amigos de menores con fines de explotación sexual.
La compañía está explorando la aplicación de la misma tecnología en Instagram.
Bajo la presión de los reguladores y legisladores, Facebook ha prometido acelerar la eliminación de material extremista e ilícito. Los programas de aprendizaje automático que analizan los miles de millones de piezas de contenido que los usuarios publican cada día son esenciales para su plan.
El aprendizaje automático es imperfecto, por eso las quejas este año sobre los sistemas automatizados de Facebook que bloquean erróneamente sus publicaciones.
Hizo excepciones para el arte y la historia, como la foto ganadora del Premio Pulitzer de una niña desnuda que huye de un ataque de napalm en la Guerra de Vietnam.