La marca invisible de Google que busca frenar la desinformación digital

SynthID permite identificar contenido creado con IA, aunque su uso no es obligatorio y aún no logra garantizar qué es real y qué no. De qué se trata.

El jueves 2 de octubre, en una de las charlas dadas en la conferencia sobre Periodismo y Nuevas Tecnologias Media Party, en el centro cultural Konex, en Once; se habló acerca de la reciente herramienta que lanza Google DeepMind para dejar una marca invisible, pero rastreable, en todo lo generado con inteligencia artificial, desde imágenes, videos, textos o audio. SynthID surge como una forma de poder identificar contenido y diferenciar lo producido con IA de lo real.

¿Cómo funciona SynthID?

Bueno, hay una explicación diferente para cada tipo de formato al que se busque dejarle la marca de agua. En fotos, con SynthID se crea una capa imperceptible al ojo humano que copia todos los píxeles de una imagen, y con ese “mapa” puede detectar la presencia de IA. Funciona incluso si al producto final se lo edita con filtros, si se lo pixela, granula, recorta, o distorsiona. Puede detectar también si solo una pequeña parte de la imagen fue intervenida por IA, y luego mezclada con una foto real.

En videos aplica un mecanismo similar; a cada fotograma del video le incrusta un mapa invisible (la marca de agua), y la sucesión de estos en conjunto forman el video.

La cosa cambia con el audio. Para marcar este tipo de composiciones, lo que se hace es convertir la onda sonora en un espectrograma, es decir, un plano de como se ve la variación de las distintas frecuencias que componen ese audio. Una vez copiado, ya se podrá detectar si un audio fue hecho con IA, porque el espectrograma del audio coincidirá con el mapa guardado en la base de datos.

Lo interesante de esto es que funciona incluso si el audio se recorta, y si sus partes son mezcladas entre sí. Con tan solo detectar una parte de la marca de agua, SynthID ya puse sugerir (nunca afirmar al 100%), que lo analizado fue intervenido por inteligencia artificial.

¿SynthID puede detectar texto?

Sí, sí puede detectar si algo fue escrito con ayuda de IA, pero su proceso es distinto al de los anteriores mencionados. La IA cuando genera texto lo que hace es rellenar las oraciones, teniendo en cuenta que tan probable es que tal palabra venga después de tal otra. Por ejemplo, rellanaría el espacio “Hola, mi nombre…”, con “mi nombre es”, puesto que esa sería la opción más probable. SynthID analiza eso, y detecta los patrones en el texto que develan si dicho archivo fue generado o modificado artificialmente.

La idea de que la marca de agua sea indetectable se tomó en cuenta para así permitirle a los creadores de contenido con IA disfrutar a pleno de sus creaciones, sin una marca que arruine la ilusión de lo generado. SynthID funciona como una barrera que nos ayudará a distinguir entre lo artificial y lo real, porque, aunque muchos utilicen estas funciones generativas de forma recreativa, lo cierto es que dejan bien abiertas las puertas a la realización de contenido malintencionado, de forma gratuita y sencilla. Con la marca de agua de Google, contenido ofensivo, o que reclame ser real cuando no lo es, rápidamente será detectado y desenmascarado.

A pesar de este gran avance, todavía queda un problema…

Google introdujo este sistema en su código, y, por ende, en todas sus IA generativas, como Veo o Gemini, (Google reporta ya haber marcado 10 billones de archivos con SynthID), pero la utilización de esta herramienta no es obligatoria por ley, entonces otras compañías de tecnología, como OpenIA, pueden rehusarse a aplicarla, y así mantener el enigma sobre la veracidad del contenido generado artificialmente.

Además, el código de muchos modelos de IA de Google es abierto, lo que significa que cualquier conocedor de programación puede descargar su código, eliminar la creación de las marcas de agua, y utilizar la IA generativa, muy eficiente y realista, de Google, sin aplicar SynthID.

Ya vemos como nuevos agentes aparecen semana tras semana, sobrepasando la calidad de generación de los anteriores; si no existen leyes regulatorias mundiales, ni se aplican obligatoriamente herramientas como SynthID para poder discernir de entre lo real y lo artificial, las fake news van a seguir en crecimiento, y poder afirmar qué es verdad y qué no, se va a volver muy difícil.

A continuación, a una recopilación de videos muy realistas generados con Sora, una IA capaz de crear videos verticales, sin censura, y sin restricciones sobre las personas que aparecen en sus creaciones:

Ver video en YouTube