Los niños en Instagram y Facebook fueron blanco frecuente de acoso sexual según el Estado de Nuevo México

Por Katherine Blunt y Jeff Horwitz

Artículo publicado en The Wall Street Journal,  17 de enero de 2024, 10:38pm ET. Traducción personal.

Los niños que usan Instagram y Facebook han sido blanco frecuente de acoso sexual, según una presentación interna de Meta Platforms de 2021, que estimó que 100,000 menores cada día recibían fotos de genitales de adultos u otro contenido sexualmente abusivo.

Ese hallazgo se encuentra entre el material no censurado de una demanda reciente sobre las políticas de seguridad infantil de la compañía presentada por el Estado de Nuevo México, que alega que las plataformas de Meta recomiendan contenido sexual a usuarios menores de edad, y facilitan las cuentas de menores de edad a usuarios adultos depredadores.

En un documento interno de 2021 y descrito en el material no censurado de la demanda, los empleados de Meta señalaron que uno de sus algoritmos de recomendación, llamado «Personas que quizás conozcas» (PYMK), era conocido entre los empleados por conectar a usuarios infantiles con posibles depredadores. La demanda de Nuevo México dice que el hallazgo había sido señalado a los directivos de la empresa varios años antes, y que habían rechazado una recomendación del personal de que la compañía ajustara el diseño del algoritmo, conocido internamente como PYMK, para evitar que recomendara menores a adultos.

En comentarios adjuntos al informe, un empleado de Facebook escribió que el algoritmo había «contribuido en el pasado con hasta el 75% de todos los contactos inapropiados entre adultos y menores». «¿Cómo diablos no hemos apagado PYMK entre adultos y niños?», respondió otro empleado, según la demanda. «Es muy, muy molesto».

Meta se negó a comentar sobre las referencias recién reveladas en los documentos internos, remitiendo a The Wall Street Journal una declaración anterior, en la que dijo que Nuevo México «caracteriza erróneamente nuestro trabajo utilizando citas selectivas y documentos seleccionados». Llamando a los depredadores de niños «criminales decididos», la compañía ha dicho que ha invertido durante mucho tiempo en herramientas centradas en la aplicación de la ley y la seguridad infantil para usuarios jóvenes y sus padres.

Nuevo México alega que Meta no ha abordado la depredación generalizada en su plataforma ni que ha limitado las funciones de diseño que recomendaban niños a los adultos con intenciones maliciosas. En lugar de reconocer públicamente los hallazgos internos, como la escala de acoso de 100,000 niños al día en sus plataformas, la demanda alega que Meta aseguró falsamente al público que sus plataformas eran seguras.

Gran parte de la discusión interna descrita en el nuevo material no censurado de la demanda se ha centrado en Instagram. Según documentos de la demanda, en un correo electrónico interno en 2020, los empleados informaron que en los Estados Unidos, la presencia de «conversaciones sexuales» con menores era 38 veces mayor en Instagram que en Facebook Messenger, e instaron a la compañía a promulgar más salvaguardas en la plataforma.

Ese año, un empleado de la empresa informó de que un ejecutivo de Apple se había quejado de que su hijo de 12 años era solicitado en Instagram. El empleado de Meta encargado de abordar el problema señaló: «este es el tipo de cosas que molestan a Apple hasta el punto de amenazarnos con eliminarnos de la App Store«. Por eso, en ese momento él preguntó si había algún cronograma para cuando se evitaría que adultos enviaran mensajes a menores en la plataforma.

Una presentación de noviembre de 2020 titulada «Seguridad infantil: estado del juego» dijo que Instagram empleó «protecciones mínimas de seguridad infantil», y describió las políticas con relación a la «sexualización de menores» como «inmaduras». Además, señaló que la plataforma tenía un «enfoque mínimo» con relación a la trata de personas.

A pesar de conocer la magnitud del problema, alega Nuevo México, los líderes de Meta no tomaron medidas para evitar que los adultos solicitaran sexualmente a los niños hasta finales de 2022; y no hicieron caso a los mensajes sobre limitaciones que su personal de seguridad recomendaba. En lugar de parar las recomendaciones de las cuentas de niños a los adultos, Facebook e Instagram trataron de bloquear tales recomendaciones a los adultos que ya habían demostrado un comportamiento sospechoso hacia los niños.

El enfoque de Meta de limitar solo el contacto con cuentas sospechosas conocidas estaba destinado a ser menos efectivo que cerrar las recomendaciones, dice Nuevo México, porque tanto los adultos malintencionados como los niños mentían rutinariamente sobre su edad. Meta reconoció internamente en el 2021 que la mayoría de los menores en las plataformas de Meta afirmaban falsamente ser adultos, dice la denuncia de Nuevo México. Y un estudio de las cuentas deshabilitadas por buscar niños para abusar de ellos encontró que el 99% de esos adultos no declararon su edad.

Meta estableció en junio 2023 un grupo de trabajo para abordar los problemas de seguridad infantil en sus plataformas después de que un artículo en The Wall Street Journal revelara que los algoritmos de Instagram conectaron y promovieron una vasta red de cuentas dedicadas abiertamente a la comisión y compra de contenido sexual de menores de edad.

Artículos adicionales de The Wall Street Journal del año pasado (2023) mostraron que Meta estaba luchando por solucionar los problemas tanto en Instagram como en Facebook, donde recientemente ha introducido los mensajes directos encriptados. The Wall Street Journal también reportó que el personal de seguridad de la empresa había advertido durante mucho tiempo sobre los peligros de intercambios velados, y que podrían utilizarse para enjuiciar la explotación infantil. Meta dijo que había pasado años desarrollando medidas de seguridad para prevenir y combatir los abusos.

Además de la demanda de Nuevo México, más de 40 Estados ha demandado a Meta en octubre 2023, alegando que engañó al público sobre los peligros que sus plataformas representan para los jóvenes. Este mes (enero 2024) , Meta dijo que comenzaría a restringir automáticamente las cuentas de adolescentes en Instagram y Facebook de contenido dañino, incluidos videos y publicaciones sobre autolesiones, violencia gráfica y trastornos alimentarios.

Publicado por Alejandro Fontana

Profesor universitario, PhD en Planificación y Desarrollo,

Deja un comentario