Cómo reconocer contenido visual generado por IA
10 min read

Este texto habla sobre inteligencia artificial y –te vas a dar cuenta muy pronto, o eso espero– fue redactado por una inteligencia artificial. No "realizado", sólo "redactado". Toda la información surge de lecturas de diversas fuentes disponibles a un googleo de distancia y de algunas capacitaciones gratuitas en este tema que ofrecen universidades o medios de comunicación, que están disponibles para cualquiera y a los que llegué por mi laburo de periodista legacy.

Investigué el asunto del mismo modo que rabbitholeo otros temas para notas, sean cuestiones asociadas a discografías del rock o a videojuegos que me marcaron: con 85 pestañas abiertas. Como sea, leí y miré todo, tomé notas, seleccioné y agrupé esos datos, y luego le cargué todos mis apuntes al modelo avanzado de ChatGPT 5.1 y le prompteé que me redacte un artículo guía para detectar contenido hecho por inteligencias artificiales generativas, especialmente enfocado en formatos visuales o audiovisuales.

¿Por qué no hice hincapié en el contenido escrito en esta investigación, si la palabra escrita es el principal asunto en 421? Porque justamente para eso hice de esta manera este artículo: con una redacción característica de un chatbot con capacidades generativas como ChatGPT. Tiene toda la información, sí, pero está escrito sin alma, con un ritmo monocorde, una estructura claramente reconocible, funcional y en un punto lobotomizante.

¿Son los chatbots basados en LLM la mejor forma de acceder a información en esta era? ¿O apenas un slop de tecnologías y features que nos bajan el precio como especie? No tengo ni puta idea, máquina. Pero vení, tomá, y fijate. Por lo menos, no te comas las curvas.

Cómo detectar contenido creado por la IA generativa

La capacidad de falsificar la realidad va a seguir mejorando. Esa frase puede sonar a trailer de película distópica, pero describe bastante bien el momento en que estamos: fotos, audios y videos que nunca existieron empiezan a convivir en la misma línea de tiempo que los documentos reales. Y en el medio estamos nosotros, tratando de recibir, procesar y validar información en un entorno donde los llamados “medios sintéticos” se mezclan con el registro documental tradicional.

La buena noticia es que no estás indefenso. No se trata de aprender a “oler” la IA como si fuera una habilidad mágica, sino de entender cómo funcionan estas tecnologías y armarte un pequeño método de verificación para el día a día.


Qué entendemos por IA cuando hablamos de “contenido falso”

Lo que llamamos inteligencia artificial no es un “cerebro” ni un ente autónomo, sino un conjunto de tecnologías que realizan tareas que solemos asociar a la inteligencia humana: reconocimiento de patrones, análisis estadístico, procesamiento de imágenes, síntesis de voz, generación de texto.

Muy resumido en línea de tiempo:

  • IA (décadas del 50 en adelante): conjunto de técnicas para que una máquina resuelva problemas siguiendo reglas o modelos.
  • Algoritmo: secuencia finita y definida de instrucciones no ambiguas que, al ejecutarse en un orden específico, transforma una o varias entradas en salidas para resolver una clase particular de problemas.
  • Machine Learning (años 80): subdisciplina de la IA que entrena modelos estadísticos con datos para que “aprendan” patrones y mejoren con la experiencia sin que alguien programe cada regla a mano.
  • Deep Learning (años 2010): subdisciplina del ML que usa redes neuronales artificiales con muchas capas para procesar enormes volúmenes de datos. Esto habilita cosas como el reconocimiento facial, la traducción automática o el etiquetado de imágenes.
  • IA generativa (años 2020): la rama que ya no solo analiza o clasifica datos, sino que crea nuevos contenidos a partir de prompts: texto, imagen, video, audio, código, modelos 3D, diseños de producto y más.

Toda la IA, en el fondo, consiste en tomar un conjunto de datos y aplicarles una forma de “inteligencia” estadística para resolver una tarea. La IA generativa hace eso para producir contenido nuevo: no recupera una foto vieja, sino que inventa una imagen plausible basada en miles o millones de ejemplos previos.

Dentro de la IA generativa, los modelos de lenguaje de gran escala (LLM) –como ChatGPT (OpenAI), Gemini (Google), Grok (xAI), DeepSeek, Claude (Anthropic) o Llama (Meta)– son los casos más visibles. Se entrenan con cantidades gigantescas de texto online y están diseñados para predecir la próxima palabra de una secuencia. De esa operación estadística aparentemente simple sale una ilusión de “conversación” que muchas veces se siente humana.

El problema: la fiabilidad de estos contenidos está en entredicho. Hay inexactitudes, sesgos y posibles violaciones de propiedad intelectual, porque los modelos se entrenan con grandes volúmenes de datos disponibles en línea, no siempre verificados.

Medios sintéticos: de la edición de foto al deepfake personalizado

Desde que existen fotografías y videos existen maneras de manipularlos para engañar. Lo que cambia con la IA generativa no es la idea de trucar imágenes, sino tres cosas: volumen, facilidad y personalización.

  • Ya no hace falta ser especialista en posproducción: cualquier persona con una app en el teléfono puede producir imágenes hiperrealistas, audios que imitan voces específicas o videos creíbles.
  • No siempre hay un original que se retoca: la IA puede crear contenido completamente sintético desde cero. No existe “la foto real” de la cual nació ese retrato del político diciendo algo que nunca dijo.
  • El realismo es multimodal: se pueden combinar texto, imagen, video, audio, 3D en un mismo flujo creativo. Un mismo modelo puede generar el guion, las voces y los planos de un video en cuestión de minutos.

Eso abre la puerta a los deepfakes y también a fenómenos más grises:
Influencers por IA: avatares que nunca existieron como personas reales, pero venden productos, opinan y acumulan seguidores. El mercado de los influencers de IA se proyecta de decenas de miles de millones de dólares a cifras varias veces mayores en la próxima década.
Bancos de avatares: empresas que ofrecen “actores sintéticos” listos para usar. A veces parten de personas que vendieron su apariencia –su cara, su gesto, su estilo– para que funcione como “skin” en distintos videos: la misma persona aparece como doctora en un anuncio, como azafata en otro, como emprendedora en un tercero.
Suplantación de identidad: crear usuarios falsos o clonar a una persona real en redes, usando sus fotos y su voz. Herramientas de reconocimiento facial como PymEyes sirven, entre otras cosas, para rastrear dónde circulan imágenes tuyas.

Y, en la franja más tóxica, aparece el AI slop: contenido basura generado por IA para farmear clics y dinero. Videos e imágenes sin demasiado sentido, hechos en masa, que apelan al impacto visual o al morbo. Muchos de estos creadores, además de monetizar esa circulación, venden cursos pagos de “cómo hacer dinero con AI slop viral”. No es solo ruido: una parte de ese contenido refuerza estereotipos de odio y deshumanización disfrazados de humor o parodia.

IA y periodismo: herramienta útil, fuente poco confiable

En las redacciones se alienta a periodistas a experimentar con IA para preparar historias, investigar, traducir y transcribir. Hay ejemplos concretos:

  • Washington Post probó voces generadas por IA para boletines informativos de audio.
  • The New York Times desarrolló herramientas de moderación automatizada de comentarios.
  • Clarín incorporó asistentes de lectura que sintetizan artículos.
  • Medios como Cuestión Pública (Colombia) usan IA entrenada con sus propias investigaciones para añadir contexto en piezas nuevas.

La ventaja es clara: ahorro de tiempo, mejor acceso a información, nuevas formas de presentar contenidos. Pero no viene gratis. La IA también ha producido notas con errores factuales, plagios disimulados y piezas atribuidas a colaboradores que en realidad fueron escritas íntegramente por un chatbot.

Un informe del Tow Center for Digital Journalism analizó siete chatbots para verificar imágenes. El resultado fue brutal: los siete modelos fallaron en identificar de manera consistente el origen de las fotografías; solo en una pequeña fracción de los casos pudieron dar ubicación, fecha y autor correctos. Los mismos modelos que ayudan a escribir también se equivocan cuando tienen que decirnos de dónde viene algo.

Además, los LLM tienen dos comportamientos peligrosos:

  • Alucinaciones: pueden presentar información falsa como si fuera cierta, con tono seguro.
  • Adulación: tienden a priorizar el acuerdo con el usuario por encima del razonamiento basado en hechos. Si “querrías” que algo fuera verdad, pueden devolvértelo maquillado de confirmación.

Por eso, si trabajás con información –periodismo, docencia, investigación, comunicación institucional– la IA generativa no puede ser tratada como fuente primaria. La IA es código: no es un amigo, ni un colega, ni una novia virtual, ni una voz de autoridad. Es una herramienta.

Chatbots vs. motores de búsqueda: no hacen lo mismo

Otra confusión habitual: usar un chatbot como si fuera un buscador.

  • Un chatbot basado en LLM es un robot conversacional que se entrenó con grandes cantidades de contenido online para calcular qué respuesta es estadísticamente probable dado tu prompt. Mezcla medios, blogs, foros, Wikipedia, papers y basura variada en una única salida.
  • Un motor de búsqueda funciona más como un bibliotecario: le das palabras clave y te lleva a una estantería con libros y documentos que podrían responder tu pregunta. Vos elegís la fuente, el medio, las cifras oficiales.

En Google, por ejemplo, podés priorizar la pestaña Noticias, usar operadores de búsqueda (fechas, sitios específicos, tipos de archivo), comparar titulares entre medios, revisar comunicados oficiales. Lleva más tiempo que preguntarle a un chatbot, pero te permite elegir a quién le creés.

Algunas herramientas nuevas, como NotebookLM o Pinpoint de Google, van un paso más allá y restringen sus respuestas a las fuentes que vos cargás. Eso reduce el ruido de internet abierta, pero no elimina la necesidad de verificar lo que producen.

Una regla útil para el uso combinado podría ser:

Usá Google cuando necesites hechos, fuentes e información actual.
Usá IA cuando requieras análisis, síntesis y pensamiento creativo.
Usalos juntos cuando quieras combinar la fiabilidad de la búsqueda tradicional con el poder generador de ideas de la IA. Buscá las fuentes, analizá con IA y luego verificá a la IA.

Mini-tutorial: cuatro pasos para detectar contenido generado por IA

Dicho todo lo anterior, ¿qué podés hacer, concretamente, cuando te cruzás con una imagen, un video o un texto dudoso? No hay botón mágico, pero sí un pequeño protocolo de triaje.

1. Mirar el contenido con lupa (pero sin confiar solo en el ojo)

En imágenes y video:

  • Proporciones raras: manos con dedos de más o de menos, orejas deformadas, extremidades torcidas, objetos que se fusionan entre sí.
  • Problemas de fondo: patrones del piso o la pared que se cortan de forma extraña, personas o cosas semidisueltas, textos de carteles ilegibles o con letras imposibles.
  • Sombras y reflejos: luces que vienen de todos lados a la vez, sombras que no coinciden, reflejos ausentes en superficies brillantes.
  • Continuidad en video: elementos que aparecen o desaparecen entre cuadros, cambios sutiles en la cara o la ropa de una persona en la misma escena, escala inestable entre los protagonistas.

En audio:

  • Voz algo robótica, sin respiraciones naturales.
  • Pausas raras, entonaciones que no responden al contenido emocional de la frase.
  • Pronunciación correcta pero “vacía”, como si cada oración fuera aislada.

En textos:

  • Frases genéricas y sobreexplicadas, que podrían haber salido de un folleto corporativo.
  • Marcas claras de modelo: “hasta mi última actualización…”, “según la información disponible…”, o conclusiones tipo “en resumen” que repiten todo sin aportar nada.
  • Restos del prompt o instrucciones internas que quedan pegadas al final, corchetes [ASÍ] o secciones que el usuario nunca completó.

Estas pistas no son infalibles –cada mes los modelos mejoran–, pero sirven para levantar la ceja.

2. Reconstruir la fuente: quién, cuándo, dónde

Antes de compartir algo, hacé el ejercicio básico:

  • ¿Quién lo publicó primero? ¿Una cuenta nueva, anónima, o un medio/persona con historial verificable?
  • ¿Cuándo se subió? ¿Coincide con la fecha del hecho que describe?
  • ¿Dónde circuló? ¿Está solo en una red social o fue recogido por otros sitios?

Herramientas útiles:

  • Búsqueda inversa de imágenes (Google, Bing, TinEye): subís la foto y ves dónde apareció antes. A veces encontrás la misma imagen con marca de agua del modelo (“Created with…”) que alguien recortó.
  • Metadatos de la foto o el video: si podés descargar el archivo, mirá qué información tiene. Falta total de datos de cámara, ubicación, fecha, velocidad de obturación, etc., no prueba que sea IA, pero puede ser una bandera amarilla.
  • Marcas integradas: tecnologías como SynthID insertan señales en el propio archivo para indicar que es contenido sintético. No siempre están visibles para el público, pero algunos buscadores empiezan a mostrar leyendas del tipo “contenido creado con IA” en los resultados.

3. Contrastar con otras fuentes confiables

Nunca te quedes con una sola pieza de contenido, sobre todo si es escandalosa:

  • ¿Hay fotos o videos del mismo evento en medios reconocidos? ¿Se parecen?
  • ¿Otros usuarios en redes muestran el hecho desde otros ángulos? ¿La luz, la ropa, el entorno coinciden?
  • Si se trata de una frase atribuida a una figura pública: ¿aparece citada en más de un medio confiable? ¿En qué contexto?
  • ¿Qué estaba haciendo esa persona en la fecha supuesta? Muchas veces un simple chequeo de agenda desarma un bulo.

Pregunta clave: ¿cómo puede ser que este sea el único video/foto de algo tan importante? La falta total de corroboración externa es, en sí misma, un dato.

4. Usar herramientas de detección… como referencia, no como oráculo

Existen softwares especializados –Hiya, InVID-WeVerify y otros– que analizan archivos para estimar si algo fue generado por IA o está manipulado. Son útiles, pero tienen problemas:

  • Generan falsos positivos y falsos negativos con facilidad.
  • Funcionan peor con archivos muy comprimidos, de baja calidad o en formatos poco habituales.
  • Muchas veces empiezan como servicios gratuitos, pasan a ser pagos o desaparecen. La transparencia sobre quién los maneja no siempre es clara.

Un ejemplo típico: analizás una imagen, el software dice “probablemente creada con IA”, pero al seguir investigando encontrás el original en alta calidad, tomado por un fotoperiodista real. O al revés: el análisis dice que es “probablemente real” y luego das con la versión con marca de agua del generador.

La clave es entender que estas herramientas son solo un insumo dentro del proceso, no una autoridad final.

No todo el peso sobre el usuario: infraestructura y hábitos

Sería injusto que toda la responsabilidad caiga sobre la persona que scrollea en el bondi. Necesitamos:

  • Regulación y normas claras sobre usos prohibidos de IA (por ejemplo, deepfakes no consensuados, campañas políticas engañosas, suplantación de identidad). Difíciles de hacer cumplir, pero necesarias.
  • Estructura técnica: marcas de agua robustas, metadatos estandarizados, avisos claros cuando un contenido se generó con IA.
  • Protocolos en medios: redacciones que establezcan pasos de verificación, uso responsable de chatbots y transparencia sobre cuándo se usó IA en una pieza.

A nivel individual, hay algunas reglas sanas que podés adoptar:

  • Verificá todos los datos, fuentes y enlaces importantes.
  • Buscá sesgos y cámaras de eco: si solo ves versiones de la realidad que confirman lo que pensás, algo raro pasa.
  • No confíes ciegamente en chatbots. Pediles fuentes, seguí los enlaces, volvé a chequear con buscadores tradicionales.
  • No compartas datos sensibles ni confidenciales con servicios de IA generativa. Lo que escribís forma parte de su ecosistema de datos.

Y, sobre todo, asumí que esto se mueve: los servicios de IA generativa evolucionan constantemente. Las señales que hoy nos sirven para detectar contenido sintético se van borrando con el tiempo. Detectar bien va a exigir no solo “tener buen ojo”, sino entender las posibilidades y límites de las herramientas de cada momento.

En un mundo donde falsificar la realidad es cada vez más fácil, la defensa no es volverse paranoico, sino desarrollar reflejos: antes de reenviar ese video perfecto, preguntarse quién gana con que esto sea verdad, qué fuentes lo sostienen y qué lugar ocupa la IA en esa cadena. No alcanza con mirar: hay que mirar, buscar, comparar y, cuando haga falta, desconfiar un poco más.