En 1895, los hermanos Lumière presentaron por primera vez La llegada de un tren a la estación de La Ciotat. La anécdota es conocida: se dice que el público, que jamás había visto imágenes en movimiento proyectadas en una pantalla, reaccionó con asombro extremo e incluso pánico. Según el relato popular, algunas personas gritaron y huyeron creyendo que el tren saldría de la pantalla y los atropellaría.
Hoy se debate si esa reacción fue real o si forma parte del mito fundacional del cine. Pero más allá de la veracidad histórica del episodio, el punto es claro: el público de fines del siglo XIX aún no tenía las herramientas cognitivas ni culturales para diferenciar una representación audiovisual de la realidad.
A partir de ese momento —y de manera gradual— la sociedad fue aprendiendo a leer imágenes. Con el paso de las décadas, el espectador entendió que lo que veía en el cine no era la realidad, sino una construcción. Durante todo el siglo XX, esa distinción se volvió incuestionable... bueno, al menos en el cine, ya que en otros medios como la televisión y la radio, siempre hubo (y sigue habiendo) manipulación del público.
Acordemos al menos que en el cine, cuando una película se basa en hechos reales, se aclara explícitamente. Cuando se trata de un documental, el formato cambia, las fuentes se citan y se establecen reglas implícitas de veracidad. En otras palabras, el público desarrolló un contrato cultural con los medios audiovisuales: salvo indicación contraria, lo que se ve en pantalla es ficción.
Un nuevo punto de partida: internet y redes sociales
Hoy estamos viviendo un momento extraordinariamente similar al de 1895. Solo que el escenario ya no es una sala de cine, sino internet. Y la tecnología disruptiva ya no es el cinematógrafo, sino la inteligencia artificial generativa.
El problema es que, a diferencia del cine, las redes sociales nunca establecieron un contrato claro con el espectador. El público no fue entrenado para dudar de lo que ve. Por el contrario, durante años se reforzó la idea de que lo que circula en redes es “real”, “espontáneo”, “grabado por alguien como vos”.
Ese supuesto es el que hoy empieza a romperse.
Los videos falsos generados con inteligencia artificial —deepfakes, recreaciones hiperrealistas, audios clonados— están teniendo un impacto enorme. Hasta hace pocos años, la baja calidad técnica los hacía fácilmente identificables: rostros rígidos, movimientos poco naturales, errores evidentes.
Hoy la situación es otra.
Cuando la falsedad se vuelve casi perfecta
Actualmente, la calidad de los contenidos generados por IA es sorprendentemente alta. Para un ojo entrenado, aún pueden detectarse ciertas anomalías:
Manos o pies mal formados
Gestos faciales extraños
Objetos inanimados que se mueven de forma incoherente
Textos que no significan nada en ningún idioma
Detalles del fondo que “vibran” o se deforman
Pero esos indicios son temporales. No son fallas conceptuales, sino técnicas y es solo cuestión de tiempo para que los modelos de inteligencia artificial las resuelvan por completo.
Cuando eso pase —y todo indica que pasará bastante pronto— estaremos frente a un escenario en el que la imagen será indistinguible de la realidad, del mismo modo en que una película actual sería absolutamente incomprensible para un espectador de 1895.
El verdadero dilema de las fake news
El gran problema de las fake news no es la tecnología, es la credulidad del público.
Durante décadas aprendimos que:
En el cine, todo es ficción.
En la televisión, hay géneros diferenciados.
En los documentales, hay reglas de verificación.
En el periodismo, al menos en teoría, hay fuentes.
Pero en redes sociales, esa alfabetización nunca ocurrió.
Por eso hoy vemos cómo una parte nada despreciable de los usuarios cree de videos falsos, audios manipulados o imágenes completamente generadas por IA. No porque sean ingenuos sino porque, por un lado les son útiles para confirmar sus creencias, pero además porque nunca aprendieron a desconfiar.
No es que el público de antes no fuera ingenuo (que en parte lo era), sino que actualmente internet y las IAs lo amplifican hasta límites inimaginables, reforzado por el modelo de negocio de plataformas digitales que premian el engagement sobre la veracidad, además de actores políticos y económicos que instrumentalizan la desinformación a su favor.
¿Hacia un nuevo contrato cultural?
Tal vez la solución no sea tecnológica, sino cultural (y, porqué no, también político/económico).
Así como el público del siglo XX aprendió que el cine es ficción salvo que se indique lo contrario, quizás estemos entrando en una etapa donde un principio similar se aplique a la web:
Todo lo que se ve en internet debe asumirse como falso, salvo que se demuestre lo contrario.
Eso implicaría un cambio profundo:
Que quien difunde una noticia deba esforzarse en citar fuentes verificables.
Que los contenidos “reales” se distingan claramente de los recreados.
Que la duda deje de ser sinónimo de cinismo y pase a ser una virtud crítica saludable.
No es un camino sencillo, y quedará determinar "quién demuestra", "cómo", "con qué autoridad", para que eso no nos lleve al escepticismo total.
Requiere educación digital, responsabilidad de las plataformas, madurez social y tiempo. Además se necesitan regulaciones, desarrollo de tecnologías de verificación y cambios en incentivos económicos.
Un punto de inflexión
Estamos, sin dudas, en un punto de inflexión histórico, exactamente como aquel público que vio por primera vez un tren proyectado sobre una pared.
La diferencia es que hoy no huimos de la sala. Hoy compartimos, comentamos y viralizamos.
La pregunta no es si la inteligencia artificial va a seguir mejorando. Eso ya está ocurriendo.
La verdadera pregunta es si nosotros, como sociedad, vamos a aprender a mirar de otra manera.
Porque la tecnología avanza rápido pero la alfabetización crítica siempre llega después, y habrá grandes poderes a los que les incomode este cambio.
Y esta vez, el desafío es enorme.
Esperemos que no llegue demasiado tarde.



