Saturday , 20 May 2024
Tecnología

Agentes estadounidenses denuncian que está fallando en un punto clave – Tinta clara

  • febrero 27, 2026
  • 0

Las redes sociales llevan años utilizando sistemas automatizados para intentar detectar algunos de los delitos más graves que circulan por internet. Entre ellos se encuentra la explotación sexual

Agentes estadounidenses denuncian que está fallando en un punto clave

 – Tinta clara

Las redes sociales llevan años utilizando sistemas automatizados para intentar detectar algunos de los delitos más graves que circulan por internet. Entre ellos se encuentra la explotación sexual infantil, un fenómeno que obliga a plataformas, reguladores y fuerzas de seguridad a monitorear enormes volúmenes de contenido cada día. La promesa de estas herramientas es clara: identificar casos potenciales antes y facilitar el trabajo de los agentes. Sin embargo, algunos equipos especializados en Estados Unidos sostienen que el volumen de avisos que reciben de las Metaplataformas se ha disparado y que una parte importante de ellos no aportan información útil para actuar.

Choque entre escala y utilidad. En una demanda en curso en Nuevo México, los fiscales sostienen que Meta no reveló adecuadamente lo que sabía sobre los riesgos que enfrentan los menores en sus plataformas y que violó las leyes estatales de protección al consumidor. Según la prensa asociadaLa acusación también sostiene que la empresa presentó la seguridad de sus servicios de una manera que no correspondía a los riesgos que enfrentaban los niños y adolescentes. El caso forma parte de una ola más amplia de demandas presentadas en Estados Unidos contra grandes empresas tecnológicas por los efectos que sus servicios pueden tener en los menores.

Meta rechaza esa interpretación. En su intervención ante el jurado, el abogado de la compañía Kevin Huff defendió que la compañía ha informado de los riesgos asociados al uso de sus servicios y que ha introducido diferentes herramientas para detectar y eliminar contenidos dañinos. Según Associated Press, Huff insistió en que el punto central del caso no es demostrar que existe contenido problemático en las redes sociales, sino determinar si la empresa ocultó información relevante a los usuarios.

Investigadores en primera línea. Quienes han aportado cifras y ejemplos concretos de este problema son agentes que trabajan directamente en las investigaciones sobre explotación infantil en Internet. En Estados Unidos, esas tareas recaen en gran medida en la red de unidades conocida como Delitos en Internet contra niños (ICAC), un programa que reúne a cuerpos policiales de diferentes niveles y se coordina con el Departamento de Justicia para investigar y procesar delitos cometidos contra menores en entornos digitales. Sus agentes reciben avisos sobre posibles casos de distintas fuentes, incluidas las propias plataformas tecnológicas.

Durante la prueba, algunos de estos agentes han descrito cómo están viviendo el aumento de publicidad procedente de las Meta plataformas. Benjamin Zwiebel, agente especial del ICAC en Nuevo México, explicó ante el tribunal que muchas de las notificaciones que reciben son de poca utilidad para avanzar en una investigación. «Recibimos muchos consejos de Meta que son simplemente basura», declaró. según El guardián. Sus palabras reflejan una preocupación más amplia dentro de estas unidades: el volumen de alertas se ha disparado, pero no todas contienen la información necesaria para identificar a un sospechoso o iniciar una acción policial.

Mala calidad. En algunos casos, los informes enviados desde las plataformas incluyen datos que no describen conductas delictivas. En otros, sí apuntan a un posible delito, pero llegan sin elementos imprescindibles para continuar la investigación, como imágenes, vídeos o fragmentos de conversaciones que permitan identificar a los responsables. Sin este material, los agentes tienen pocas herramientas para avanzar en el caso o solicitar nuevos procedimientos. Algunos agentes también han notado que una parte de estos avisos llegan con información incompleta o parcialmente eliminada.

La maquinaria de información masiva. Detrás de este aumento de avisos hay varios factores que ayudan a entender por qué se ha disparado el volumen de denuncias enviadas a las autoridades. En los Estados Unidos, las empresas de tecnología están obligadas por ley a informar cualquier material de abuso sexual infantil que detecten en sus servicios a la Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), organismo que actúa como centro nacional de recepción de estas notificaciones y posteriormente las distribuye entre los cuerpos policiales correspondientes. Los agentes citados por The Guardian también señalan cambios legales recientes, como la Ley de Informes, que entró en vigor en noviembre de 2024, como un posible factor que habría aumentado el número de avisos enviados para evitar el incumplimiento.

Meta dice que está haciendo lo contrario.. La empresa rechaza la idea de que sus sistemas estén dificultando el trabajo de las autoridades y sostiene que, por el contrario, colabora desde hace años con las fuerzas de seguridad para detectar y perseguir este tipo de delitos. Un portavoz de Meta afirmó que el Departamento de Justicia de Estados Unidos ha reconocido en varias ocasiones la rapidez con la que la empresa responde a las solicitudes de las autoridades y que el NCMEC ha evaluado positivamente su sistema de notificación de avisos.

Según la compañía, en 2024 recibió más de 9.000 solicitudes de emergencia de las autoridades estadounidenses y las resolvió en un tiempo medio de 67 minutos, un proceso que, afirma, se acelera aún más cuando se trata de casos relacionados con la seguridad infantil o el riesgo de suicidio. Meta también señala que informa al NCMEC cualquier material que pueda estar relacionado con la explotación sexual infantil y que trabaja con esa organización para ayudar a priorizar los avisos, incluso etiquetando aquellos que considera más urgentes.

un verdadero problema. Independientemente de lo que determine el jurado de Nuevo México, el caso refleja una tensión que va más allá de una sola empresa o un solo estado. Las plataformas digitales operan a escala global y utilizan sistemas automatizados para detectar contenidos ilícitos en volúmenes que serían imposibles de revisar manualmente. Sin embargo, la experiencia descrita por algunos agentes demuestra que aumentar el número de pistas no siempre se traduce en investigaciones más efectivas.

Imágenes | Dima Solomina | MUNDO ROBIN

En | Dario Amodei fundó Anthropic porque OpenAI no tomó en serio los riesgos de la IA. Ahora vas a ceder ante esos riesgos.