La IA desafía a la realidad: ¿hay alguien al otro lado?  

El sector tecnológico está provocando una crisis de confianza sin precedentes: la inteligencia artificial permite poner en duda incluso la veracidad de imágenes y vídeos, mientras sistemas autónomos, sin identidad ni responsabilidad jurídica, operan con capacidades humanas a escala y velocidad de máquina.

En un evento dedicado a las últimas tendencias tecnológicas en el sector de las cámaras de vídeo, el ponente pregunta desde el escenario a una sala de unas 200 personas cuántos están protegiendo la validez del contenido que sus dispositivos capturan lo suficientemente bien como para que éste pudiera admitirse como una prueba en los tribunales. Toda la sala levanta la mano.

 

A continuación, les formula una segunda cuestión: ¿cuántos creen que el resto de los presentes en esa misma sala están protegiendo el contenido de sus vídeos tan bien como lo hacen ellos? Nadie levanta la mano. “Esta es la realidad del sector”, explica el protagonista de la historia, Jason Crawforth, fundador y CEO de la startup SWEAR, Premio a la Innovación en el CES Las Vegas, Premio SXSW, Premio Edison 2024 y 2025, Premio CIO y Premio NPS de la SIA (Security Industry Association).

 

La tecnología de las cámaras no ha cambiado mucho en las últimas dos décadas, “pero fuera del sector las cosas se han transformado drásticamente”, sobre todo a raíz de la irrupción de tecnologías como la inteligencia artificial (IA) generativa y, en menor medida, los algoritmos cuánticos. Crawforth cree que el vídeo que se obtiene hoy todavía puede ser utilizado como evidencia en un tribunal, “pero dentro de tres años ese mismo vídeo no va a ser admitido”.

 

La anécdota del evento no acaba ahí. El fundador de SWEAR pregunta a los asistentes si están utilizando la IA y “entre el 70% y el 80% de la sala levanta la mano”. Pero ¿cuántos estaban desarrollando tecnologías para defenderse de la IA? “Cero”. Si no se toman medidas, acabará convirtiéndose “en un arma, va a causar guerras, conflictos, va a destruir reputaciones, va a hacer estallar empresas, va a cambiar las elecciones”.

La pregunta se ha vuelto más pertinente que nunca. A principios de 2025 se estimaba que existían más de cuatro millones de deepfakes online, contenidos de vídeo, audio e imagen manipulados o generados con IA. A estas alturas la cifra es sustancialmente superior. Se crean 25.000 al día, el ritmo de crecimiento es del 900% anual.

 

El impacto en la confianza de los usuarios ya es visible. El 81% de los encuestados por YouGov duda de la fiabilidad del contenido online y el Global Risks Report 2025 del Foro Económico Mundial situó a la desinformación y la información falsa como el principal riesgo para las sociedades a dos años vista.

 

Todo ello resulta especialmente llamativo en un momento de “recesión de la amistad”, según la Harvard Kennedy School. Casi el 40% de los estadounidenses tienen amistades exclusivamente online, pero ¿hay alguien al otro lado? Las cenas en solitario han aumentado un 29% en los últimos dos años y los adolescentes pasan solo 40 minutos al día en persona con sus amigos fuera del horario escolar, en comparación con los 140 minutos diarios de hace casi dos décadas.

 

La crisis de la confianza es probablemente el mayor rasgo definitorio de nuestra época. La de la ciudadanía en los medios de comunicación ha caído incluso más que en otras instituciones, según Gallup.

 

La tecnología de SWEAR es sólo un ejemplo de los esfuerzos que está haciendo el sector tecnológico para dar una alternativa a los usuarios en el ámbito del vídeo. Se integra en cámaras y dispositivos de grabación y asigna a cada fotograma del vídeo un ADN digital único, que se escribe en un libro de contabilidad blockchain independiente e inmutable. Sus clientes potenciales van desde aeropuertos y centros urbanos, a empresas de retail y los despachos de abogados y servicios de vigilancia.

Hace tres años, la compañía Axis lanzó un algoritmo para firmar cada uno de los fotogramas y las imágenes generados por las cámaras y lo publicó para que cualquiera pudiera usarlo. Entró incluso en contacto con los reproductores, VLC y Media Player. Apenas tuvo éxito.

 

“La Ley de Inteligencia Artificial de la Unión Europea establece que cualquier contenido generado por IA debe de estar marcado como tal, pero quien crea un contenido con la intención de que se confunda con uno real no lo va a hacer. La única solución sería hacer justo lo contrario: marcar todos los contenidos legítimamente generados, sean o no artificiales”, explica Alberto Alonso, director de ingeniería para Europa de Axis.

Verificar la identidad se ha convertido en un asunto estratégico también en el mundo online, un desafío mayúsculo de ciberseguridad. El problema ha dejado de ser si quienes atacan a nuestras organizaciones son usuarios humanos, reconocibles a través de la amplia variedad de sistemas de identificación existentes, o máquinas identificables, que siguen reglas estructuradas y predecibles. En el evento Identiverse 2025 se ha hablado de abordar los riesgos emergentes de las identidades no humanas (NHIs).

 

El NHI Mgmt Group lleva ya tiempo analizando el fenómeno y cree que el número de identidades no humanas presentes en el tejido informático de una gran organización podría multiplicar por 25 o incluso por 50 al de identidades humanas. Para la gestión de algunos programas globales dentro de la industria financiera se han llegado a contabilizar más de 500.000 NHI.

En esa categoría cobran especial relevancia los agentes de IA que operan con inteligencia humana a la velocidad de las máquinas. De ahí que se haya abierto ya el debate acerca de si deben someterse a los mismos derechos y deberes que los humanos a los que representan. Al fin y al cabo, toman decisiones en su nombre.

 

La identidad es todavía un asunto problemático incluso del lado humano. El Banco Mundial da por cierto que 850 millones de personas en todo el mundo carecen de documento de identidad, aunque algunas fuentes elevan la cifra a 1.100 millones.  La Unión Europea quiere extender al 100% de los ciudadanos la identidad digital en 2030 y está impulsando las soluciones de autenticación adaptativa en las que, por ejemplo, se puede asignar a un cliente un perfil de riesgo. La IA será la encargada de analizar su comportamiento en tiempo real.

 

Dentro de cinco años, ¿cómo sabremos si algo es real? “Estamos a uno o dos años de no poder creer nada”, insiste Crawforth. Su tecnología también registra “cuándo se grabó, dónde se grabó, cómo se grabó, incluso quién grabó. Y eso es importante, porque la verdad depende del tiempo, de la ubicación y también del contenido. Debes saber si ese fue el lugar real en el que se grabó o si la escena es real, pero sucedió hace 10 años”.

 

En EEUU, algunas grandes compañías de tecnología formaron hace unos años la C2PA (Coalition for Content Provenance and Authenticity), promovida por Microsoft y Adobe, con la participación de medios y agencias como BBC y Publicis. Los últimos meses se han ido sumando las compañías tecnológicas habituales (Meta, Google, OpenAI, Amazon) y nombres chinos como Huawei y TikTok. Su actividad no es demasiado relevante, todo sea dicho. Su mayor logro fue acordar el uso de una marca de agua, si algo es creado por IA.

 

Habrá que repensar la regulación para la inteligencia ambiental que se avecina. Europa es muy estricta en el uso de imágenes para el reconocimiento facial. Aunque el reciente Omnibus Digital suaviza algunas aristas, está en las antípodas de los excesos de China y de la posición menos beligerante de Estados Unidos y Reino Unido.

 

La industria dispone de fórmulas de anonimización, aunque España no sea tan activa como Alemania e Italia exigiéndolas. En realidad, los sistemas sólo ven un avatar de nosotros, detrás de las cámaras no hay nadie mirando.

 

En última instancia, la identidad es la pieza clave del desarrollo tecnológico que se avecina, la cuestión es quién se queda con más parte del pastel: los usuarios, las empresas o los Estados. David Barrera, investigador en la universidad canadiense de Carleton, cree que vamos a poner un ordenador allí donde se pueda, desde audífonos a tazas de café, lavadoras, tostadoras de pan.

 

“Por una razón muy sencilla: cuando pones un ordenador, puedes obtener información sobre cómo se está usando ese producto y entender mejor cómo actúan los usuarios, después puedes vender esa información y esa analítica. Si se sabe cuántas veces levantas tu taza de café, a alguien se le va a ocurrir alguna manera de utilizar esa información y venderla”. 

 

Fuentes:

Eugenio Mallol es un periodista especializado en innovación tecnológica, creador del suplemento INNOVADORES en El Mundo y La Razón del que fue director durante 11 años. En la actualidad, es director de estrategia y comunicación en Atlas Tecnológico y analista y coordinador de la Cátedra Ciencia y Sociedad de la Fundación Rafael del Pino. Es columnista de Forbes España y colabora en medios digitales como InnovaSpain y Valencia Plaza, es autor de libros e informes sobre innovación tecnológica y conferenciante.