¿Es real o fabricado? La IA, otro actor de la guerra en Irán
AFP
Washington, Estados Unidos.- La difusión de un video auténtico del primer ministro israelí, Benjamin Netanyahu, mostrando supuestamente “seis dedos”, desató una ola de teorías conspirativas que ejemplifica el desafío actual: incluso las imágenes reales son puestas en duda en un entorno saturado de desinformación generada por inteligencia artificial (IA).
En redes sociales circularon afirmaciones sin pruebas que aseguraban que Netanyahu había muerto en un ataque iraní y que Israel utilizaba un doble creado por IA. Aunque expertos aclararon que el “dedo extra” era solo una sombra fugaz, la explicación se perdió en la velocidad de la viralización.
“La última vez que comprobé, los humanos no tenían seis dedos… salvo para la IA”, decía un comentario visto por millones de usuarios en X.
Deepfakes y rumores: cuando lo real también se cuestiona
Los generadores de imágenes y video con IA han eliminado muchos de los defectos que antes permitían detectar manipulaciones, lo que ha difuminado la frontera entre realidad y ficción. Incluso cuando Netanyahu publicó un segundo video como “prueba de vida”, las teorías conspirativas se multiplicaron: usuarios analizaron su taza de café, sus orejas y hasta sus gestos para argumentar que se trataba de un deepfake.
La situación refleja un fenómeno creciente: la sospecha permanente, incluso frente a contenido auténtico.

AFP: un 20–25% de la desinformación verificada fue creada con IA
La red mundial de AFP ha producido más de 500 verificaciones desde el inicio del conflicto, y entre el 20% y el 25% de los contenidos falsos detectados fueron generados con IA.
“Las plataformas tecnológicas están saturadas de lo que muchos llaman el ‘ruido digital’”.
Investigadores advierten que esta guerra se distingue por el realismo y la escala de los contenidos artificiales, impulsados por herramientas avanzadas, baratas y accesibles.
Desinformación “zombie” y algoritmos que premian el sensacionalismo
Incluso cuando se demuestra que un contenido es falso, este reaparece una y otra vez. Los algoritmos priorizan publicaciones que generan interacción, lo que favorece el sensacionalismo y la indignación.
Casos recientes incluyen:
- Videos falsos del Burj Khalifa colapsando
- Memes de IA que trivializan el conflicto
- Supuestas “victorias militares” iraníes generadas digitalmente
- Imágenes satelitales y mapas manipulados
El Instituto para el Diálogo Estratégico (ISD) reporta que cuentas que difunden contenido de IA sobre la guerra Irán–Estados Unidos–Israel han acumulado más de 1,000 millones de visualizaciones.
La “Legoificación” de la propaganda
El ISD identifica una tendencia creciente: el uso de personajes tipo Lego para crear narrativas falsas. Una película ficticia generada por IA acusó a Donald Trump de atacar Teherán para desviar la atención de otros escándalos, alcanzando viralidad global.
Plataformas insuficientes y verificaciones fallidas
Meta ha sido criticada por no ofrecer herramientas claras para distinguir contenido real de contenido generado por IA. Su Consejo de Supervisión advirtió que los contenidos falsos pueden “incitar a mayor violencia y alimentar el conflicto”.
Incluso herramientas de detección de IA fallan: una clasificó erróneamente un video auténtico de Netanyahu como “96.9% generado por IA”.
El “dividendo del mentiroso”: cuando todo puede ser falso
NewsGuard señala que la desinformación ya no solo fabrica contenido falso, sino que también desacredita contenido real, sembrando dudas sobre reportajes auténticos. Esto facilita negar atrocidades o hechos verificados.
Un ejemplo reciente: una imagen de una mochila ensangrentada tras un ataque en Minab resultó probablemente generada por IA, pero fue utilizada para ilustrar una tragedia real sin que los usuarios cuestionaran su origen.







