Hemos tratado de usar AI para verificar si las imágenes de la guerra entre Irán e Israel se hicieron con IA. Ha sido un desastre
– Tinta clara
julio 1, 2025
0
Las imágenes falsas circulan en las redes sociales no son novedad, pero en la era de la IA Es cada vez más difícil detectarlos Y incluso han hecho
Las imágenes falsas circulan en las redes sociales no son novedad, pero en la era de la IA Es cada vez más difícil detectarlos Y incluso han hecho Desconfiemos de las fotos reales. Que las fotos tomadas con IA son virales cuando un evento importante es la nueva normalidad es; Lo vimos Después del apagón Y también con el Conflicto entre Israel e Irán. Para nosotros es claro que la IA es muy buena para generar imágenes falsas, pero ¿qué pasa si las usamos precisamente para lo contrario? No tanto.
Las fotos en cuestión. Al mismo tiempo que un Medio publicado iraní La noticia de que Irán había demolido un F-35 israelí, dos imágenes comenzaron a funcionar como una pólvora en las redes sociales, aunque Pronto sabíamos que eran falsos. Uno de ellos, el de la estrella y rodeado de curiosos F35, es especialmente sorprendente. Para empezar, las proporciones no tienen sentido: el avión parece gigante cuando en realidad mide 16 metros y las personas son más grandes que los edificios. Y que sin mencionar que el daño del avión es mínimo de haber sido derribado.
Estas imágenes no fueron las únicas generadas por AI que circularon en los primeros días del conflicto. Varios videos como este de un enorme misil iraní que parece bastante real hasta que veamos que la marca de agua se ha dejado para ver que está hecha con IA, o Al este de un Tel Aviv destrozado.
Ai es terrible haciendo Verificar. Significa dedicado a Verificación de hechos como Maldita sea ya negado Estas y otras imágenes creadas con IA en el contexto del conflicto entre Irán e Israel. Sin embargo, hubo usuarios que intentaron recurrir a herramientas de IA para verificar la autenticidad de las imágenes y obtener respuestas bastante confusas. Es Lo que pasó en X con Grok. Un análisis de más de 130,000 publicaciones reveló que la IA de Musk no pudo detectar algunas imágenes falsas ni identificar las fuentes de las que vinieron. Las notas comunitarias escritas por los propios usuarios eran mucho más confiables.
Lo hemos probado. Para verificar las capacidades de IA, hemos utilizado la imagen del F-35 desproporcionado y hemos pedido varias herramientas de IA. Esto es lo que han respondido:
Chatgpt: La herramienta OpenAI comienza «Esta imagen no parece real» y luego procede a hacer un análisis de la proporción del avión, que se identifica correctamente como un F35, y afirma que el daño no parece coherente.
Perplejidad: Al igual que ChatGPT, nos dice que las proporciones, la perspectiva y el daño del avión y otros detalles sugieren que la foto ha sido manipulada digitalmente.
Géminis: Nos dice que la imagen es real, pero que no es un ataque en combate, sino de un choque con pájaros que sucedieron en Israel en 2017. Cuando respondemos que las fuentes nos muestran, ocurre varios enlaces a las noticias, pero en ninguna de ellas aparece la imagen. Después de un tiempo enviándonos información confusa, termina reconociendo que estaba equivocado y se disculpa por «el grave error».
Tirar: Es el único que establece con fuerza que la imagen no es real y nos da el contexto exacto de lo que ha sucedido «Esta es una de las muchas imágenes falsas que han circulado como parte de las campañas de información errónea durante el conflicto entre Israel e Irán».
La fiabilidad, el sujeto pendiente. En nuestra prueba, Gemini ha inventado por completo la respuesta, mientras que ChatGPT y la perplejidad tienen éxito, aunque no se mojan. Claude es el único que nos da toda la información y golpea completamente. Aunque los modelos de idiomas han mejorado mucho en poco tiempo, Se siguen inventando muchas respuestas A pesar de tener acceso a Internet y búsquedas. Sin lugar a dudas, la confiabilidad es el tema pendiente de IA generativa y donde tiene un mayor margen de mejora.