Tecnología

El canguro que “iba a volar en avión”: el video viral hecho con IA que engañó a medio Internet

Un canguro caminando por la manga de un avión causó furor en redes. Pero el video era falso: fue generado con IA. ¿Cómo saberlo? Aquí te lo contamos.

Canguro viral
Canguro viral

La inteligencia artificial sigue cruzando límites insospechados. Esta vez, no se trató de un deepfake político ni de un robot parlante, sino de un adorable canguro que aparentemente caminaba por la manga de embarque de un avión comercial en Australia. El clip, tan realista como insólito, recorrió TikTok, Instagram y X con una velocidad de vértigo, acumulando millones de vistas en cuestión de horas.

PUBLICIDAD

Pero la historia tenía un giro inesperado: todo era falso. El animal nunca estuvo ahí, el aeropuerto no fue testigo del momento, y los pasajeros que reaccionaban sorprendidos... tampoco existen. Era un montaje generado íntegramente con inteligencia artificial. Y si tú también caíste, no te preocupes: no estás solo. En este artículo, desmenuzamos el fenómeno y te enseñamos cómo detectar los pequeños detalles que delatan un video hecho con IA

Lee también: Científicos brasileños descubren enjambre de asteroides en Venus que podrían amenazar la vida de la Tierra

El canguro que se convirtió en estrella global en TikTok y X

En cuestión de horas, un video en el que se veía a un canguro tranquilo en un aeropuerto se volvió viral. Las imágenes parecían extraídas de una cámara de seguridad o del celular de un pasajero sorprendido. Se veía al marsupial esperando con calma mientras el resto de los presentes lo observaban con asombro, incluso con ternura: tenía su pasaje en la mano. El texto del video decía: “Un canguro fue sorprendido intentando abordar un vuelo comercial en Australia”.

La historia era perfecta para internet: era tierna, insólita y contenía ese elemento de caos adorable que tanto engancha en TikTok e Instagram. La pieza fue compartida por cuentas de noticias virales, influencers, y hasta políticos australianos. En menos de 24 horas, acumuló más de 40 millones de vistas en TikTok y otros 20 millones en X (antes Twitter).

Pero no era real. No solo el evento nunca ocurrió: el video completo fue generado por una inteligencia artificial. Y ese dato cambió la conversación.

¿Cómo supimos que el video era falso?

Expertos en verificación de contenido comenzaron a analizar el clip cuando notaron detalles sutiles que no cuadraban. Algunos de ellos incluyen:

PUBLICIDAD

1.⁠ ⁠Sombras inusuales: la sombra del canguro no coincidía con la fuente de luz del resto del entorno.

2.⁠ ⁠Movimiento imperfecto: el movimiento de las protagonistas tenía frames borrosos, con articulaciones que no seguían un patrón natural. El boleto del canguro tampoco decía nada coherente.

3.⁠ ⁠Rostros distorsionados: las protagonistas que aparecían en segundo plano tenían rostros ligeramente extraños, típicos de contenido generado por IA. Incluida la conversación: no era inglés, no era ningún idioma.

4.⁠ ⁠Ausencia de metadatos confiables: el archivo carecía de detalles como geolocalización o autoría clara, lo cual levantó sospechas

Finalmente, la agencia australiana de verificación RMIT FactLab confirmó que el video había sido producido con herramientas como Runway ML o Sora (de OpenAI), basándose en análisis de estructura y patrones de generación

Canguro viral
Canguro viral

¿Por qué tanta gente creyó que era real?

En primer lugar, el realismo de los modelos de generación de video ha aumentado drásticamente. Con herramientas como Pika Labs, Sora y Runway, cualquier persona con una frase creativa puede generar escenas que, sin una inspección detenida, parecen absolutamente reales

Además, el contexto jugó a favor de la farsa: el hecho de que ocurriera “en Australia” le daba verosimilitud. Después de todo, Australia es famosa por sus interacciones extravagantes con la fauna local. La combinación de humor, ternura, absurdo y estética de video doméstico fue la fórmula perfecta para viralizarse.

¿Cómo detectar si un video es falso y fue generado por IA?

A continuación, algunas claves prácticas para evitar caer

1.⁠ ⁠Analiza el context

Pregúntate: ¿alguien más ha reportado esta noticia? ¿Hay testigos reales, medios reconocidos o evidencia secundaria? Si la respuesta es no, sospecha

2.⁠ ⁠Busca anomalías visuales

Fíjate en manos, pies, sombras, dientes, pupilas, movimiento de ojos o sincronización labial si hay voz. Las IAs aún fallan en esos detalles

3.⁠ ⁠Revisa metadatos (si puedes)

Usa herramientas como InVID o Metadata2Go para inspeccionar el archivo. Muchos videos IA carecen de metadatos convencionales.

4.⁠ ⁠Consulta verificadores de datos

Sitios como Snopes, Maldita, Chequeado o el propio Google Fact Check pueden ayudarte a confirmar si un video ya ha sido desmentido.

5.⁠ ⁠Piensa como periodista

¿Quién grabó esto? ¿Por qué? ¿En qué fecha ocurrió? Si no puedes responder al menos dos de esas preguntas, probablemente sea ficción.

El impacto real de un video falso

Más allá del humor, este tipo de contenidos pueden erosionar la confianza pública en la información real. En un mundo donde ver no es igual a creer, los videos realistas generados por IA están desafiando las reglas de la credibilidad.

Especialistas en ética digital advierten que hoy una broma puede viralizarse sin consecuencias, pero mañana podría usarse para manipular elecciones, simular crímenes o desacreditar instituciones.

Deepfake
Deep fake, AI and face swap in video edit. Deepfake and machine learning. Facial tracking, detection and recognition technology. Digital identity interchange. Computer software mockup. Deep fake, AI and face swap in video edit. Deepfake and machine learning. Facial tracking, detection and recognition technology. Digital identity interchange. Computer software mockup. Fraud picture. (Tero Vesalainen/Getty Images)

Las plataformas reaccionan (pero lento)

TikTok y X marcaron el video como “contenido manipulado” casi 18 horas después de que se viralizara. Para entonces, ya había sido compartido más de 250.000 veces. YouTube ni siquiera lo detectó como falso durante el primer día.

La falta de mecanismos automatizados para identificar IA generativa es uno de los grandes retos que enfrentan las redes sociales en 2025. Aunque se está trabajando en marcas de agua invisibles y etiquetas automatizadas, aún no existe un estándar universal obligatorio.

Elon Musk, Sora, y el futuro de los deepfakes tierno

Irónicamente, muchas de las herramientas que permiten estos videos fueron desarrolladas por empresas que predican responsabilidad ética. OpenAI, por ejemplo, promueve usos creativos y seguros de Sora, pero reconoce que los modelos pueden ser mal usados.

Elon Musk, crítico frecuente de la IA, advirtió recientemente sobre el auge de “deepfakes emocionales” en una entrevista con Lex Fridman. Según él, el mayor peligro no son las falsificaciones bélicas o políticas, sino las que manipulan emociones cotidianas: mascotas hablando, bebés haciendo monólogos o, como en este caso, canguros que suben a aviones.

¿Qué hacer como usuario ante este fenómeno?

La mejor defensa es la alfabetización mediática. Enseñar a identificar señales de manipulación y fomentar el pensamiento crítico son claves. En países como España y Canadá ya se incluyen talleres de verificación digital en la educación básica.

El video del canguro fue inofensivo, sí. Pero es un ejemplo claro de cómo la inteligencia artificial puede engañar al ojo humano con una precisión inédita. La historia nos deja dos enseñanzas clave: la IA ya está entre nosotros en forma de entretenimiento viral... y debemos aprender a convivir (y detectar) sus manifestaciones más sofisticadas.

PUBLICIDAD

Tags


Lo Último