Ricardo se levantó temprano, como de costumbre, y revisó su celular mientras tomaba el primer mate del día. La helada aún cubría los techos de Esquel, y la niebla se enroscaba en las montañas como un manto denso. En su bandeja de entrada, un mensaje destacaba entre los demás: “¿Es esto real?”.

Lo envió una amiga de la secundaria, adjuntando un enlace. Ricardo lo abrió con el entrecejo fruncido. Era un perfil en una red social que no reconocía, pero ahí estaba su cara, repetida en varias imágenes. Fotos de él, aparentemente en fiestas, bebiendo en exceso, abrazado a desconocidos, y en una especialmente vulgar, besándose con una vaca. Pero Ricardo sabía con absoluta certeza que esas fotos no eran reales.

No podía ser: nunca había estado en esas situaciones, nunca había usado ese tipo de ropa. Además, la fecha de una de las imágenes correspondía a la noche de un asado con sus amigos, donde apenas salió de su casa. Las imágenes eran perturbadoramente convincentes, pero las sombras caían en ángulos extraños y su expresión en algunas parecía... vacía. Como si alguien hubiese tomado su rostro y lo hubiese colocado en otro cuerpo.

Pasaron horas hasta que entendió lo que estaba ocurriendo. Su nombre, sus fotos reales y hasta el estilo de su perfil público en redes habían sido usados para entrenar un modelo de inteligencia artificial. Las imágenes falsas, generadas con una tecnología conocida como deepfake, se difundieron sin control, acompañadas de mensajes que buscaban dañar su reputación.

Inteligencia artificial en el espejo de la vida cotidiana

El cruce entre lo ético y lo legal: un desafío constante

La historia de Ricardo destapa un problema cada vez más común: la vulnerabilidad de nuestra identidad en un mundo digital gobernado por algoritmos. ¿Qué derechos nos protegen frente a estos ataques? Y, más importante aún, cómo podemos reclamarlos en un contexto donde las tecnologías avanzan más rápido que las leyes? A continuación, exploramos las principales dimensiones legales del caso, explicadas de manera accesible y cercana.

1. Derecho a la imagen: la base de todo

El derecho a la propia imagen garantiza que nadie puede usar nuestra apariencia sin consentimiento, ya sea para fines comerciales, artísticos o personales. Este derecho está protegido en el Código Civil y Comercial argentino, que establece que la imagen de una persona no puede ser captada, reproducida o publicada sin autorización.

En el caso de Richard, aunque las fotos eran falsas, su imagen fue utilizada para crear escenarios que nunca ocurrieron. Esto plantea un dilema interesante: ¿de quién es la culpa cuando se usa una herramienta de IA para generar imágenes que no existen, pero que afectan la vida de alguien? Aunque la ley protege claramente las imágenes reales, el vacío legal sobre las imágenes sintéticas deja un terreno peligroso para quienes sufren este tipo de manipulación.

El principio básico es claro: si tu rostro aparece en un contenido no autorizado, ya sea real o falso, tienes derecho a exigir su remoción y buscar reparación. Sin embargo, en el caso de Richard, la difusión masiva complicó la situación. Una vez que algo llega a las redes sociales, eliminarlo completamente es como intentar borrar una huella en la arena que se encuentra frente a una ola.

2. Difamación y honra en la era digital

La difamación ocurre cuando se difunden contenidos falsos que dañan la reputación de alguien. En Argentina, esto está tipificado como un delito en el Código Penal, que regula las calumnias e injurias. Pero, ¿qué pasa cuando el contenido dañino no es una mentira “clásica”, sino una imagen hiperrealista generada por un algoritmo?

Aunque el uso de deepfakes no está mencionado explícitamente en nuestras leyes, los efectos de su difusión pueden ser juzgados bajo las mismas reglas que otros actos difamatorios. El problema radica en demostrar quién fue el responsable de crear y difundir ese contenido, un desafío complejo dado el anonimato que permiten muchas plataformas digitales.

3. Derecho a la privacidad: la protección de nuestra esfera personal

El derecho a la privacidad es uno de los más importantes cuando se trata de tecnologías digitales. La Constitución Nacional lo protege a través del artículo 19, y está complementado por la Ley 25.326 de Protección de Datos Personales. Esta norma prohíbe el uso de información personal sin consentimiento explícito, incluyendo fotografías y datos que puedan identificar a una persona.

En el caso de Richard, las imágenes reales que compartió en sus redes sociales fueron utilizadas como insumos para generar los deepfakes. Esto pone de manifiesto la importancia de entender cómo nuestros datos y fotos públicas pueden ser usados por terceros. Aunque la ley establece el derecho a reclamar y exigir la eliminación de información personal mal utilizada, la rapidez y alcance de internet hacen que el daño sea difícil de revertir por completo.

4. La delgada línea entre lo real y lo falso: los deepfakes

Los deepfakes son una tecnología basada en redes neuronales que permite superponer rostros y voces sobre cuerpos ajenos. Aunque tienen aplicaciones legítimas (cine, publicidad), su uso indebido para difamación, pornografía no consentida o fraude es cada vez más común. En países como Estados Unidos, algunas jurisdicciones han prohibido su uso en campañas políticas o sin consentimiento explícito. En Argentina, todavía no existe un marco específico para regularlos.

En Argentina, todavía no hay una legislación específica que contemple los deepfakes, pero pueden ser abordados desde las leyes existentes sobre imagen, privacidad y difamación. Sin embargo, la ausencia de un marco concreto genera incertidumbre sobre cómo proceder en casos como el de Richard, donde las tecnologías de manipulación son cada vez más accesibles y sofisticadas.

Inteligencia artificial en el espejo de la vida cotidiana

Mirar hacia adelante: recomendaciones para navegar el futuro de la IA

La experiencia de Richard nos invita a reflexionar y actuar. Estos son algunos pasos para prevenir y enfrentar situaciones similares:

  1. Lecturas para entender el fenómeno:
    • Deepfakes and the Infocalypse de Nina Schick, que explora cómo las falsificaciones digitales están transformando la realidad.
    • Fake Photos de Hany Farid, un análisis técnico sobre cómo se crean y detectan imágenes falsas.
  2. Herramientas para protegerse:
    • Limite la cantidad de fotos personales públicas en redes sociales. Incluso ajustar la privacidad puede ser crucial para reducir el riesgo.
    • Utilice plataformas de verificación como Deepware Scanner, que detectan manipulaciones en imágenes y videos.
  3. Acciones legales y cívicas:
    • Denuncie el contenido falso en las plataformas donde aparece. Redes como Instagram y Facebook tienen protocolos para reportar deepfakes.
    • Consulte a un abogado especializado en derecho digital o informático.
  4. Recomendaciones culturales para reflexionar:
    • Black Mirror, que indaga sobre la manipulación de recuerdos digitales.
    • The Social Dilemma, un documental que expone las estrategias detrás de la viralización y manipulación digital.
    •  

Esa noche, Ricardo con ayuda de algunos amigos, logró que las imágenes fueran eliminadas de las redes principales. Sin embargo, el daño estaba hecho: algunos conocidos ya habían visto las publicaciones y las compartieron con otros. Desde entonces, cada vez que alguien le pregunta si esas fotos fueron reales, Richard siente la necesidad de explicar, como si el peso de probar su verdad recayera exclusivamente en él.

Frente al espejo, mientras se lavaba la cara, pensó: ¿cuánto control tenemos sobre nuestra identidad en un mundo donde basta una máquina para arrancárnosla?