Ceder tus fotos a la inteligencia artificial: un riesgo que a menudo no vemos

Compartir imágenes a redes o con aplicaciones puede suponer perder el control sobre su uso, especialmente con el adelanto de la IA y los deepfakes

24 de julio de 2025 a las 09:37h

En plena era digital, compartir una foto en las redes sociales o usar una aplicación de inteligencia artificial que genera avatares o edita retratos puede parecer inofensivo. Pero detrás de esta aparente simplicidad hay riesgos reales que a menudo pasan desapercibidos. Según un artículo publicado por Miguel Ángel Ossorio, de la mano de la Universitat Oberta de Catalunya (UOC), cada imagen que subimos puede acabar siendo utilizada para entrenar sistemas de inteligencia artificial, y esto puede tener consecuencias graves para nuestra privacidad e identidad digital.

Cuando aceptas sin leer: ceder más de lo que imaginas

Pocas personas leen realmente los términos y condiciones de uso de las aplicaciones o redes sociales que utilizan. Y aunque lo hagan, a menudo el lenguaje legal es tan técnico que es difícil saber exactamente qué estamos aceptando. El problema es que, en muchos casos, cedemos derechos sobre nuestras imágenes sin darnos cuenta. Plataformas como Meta (propietaria de Facebook e Instagram) pueden utilizar estas imágenes para entrenar sistemas de IA, según indican en sus condiciones de uso.

Según Silvia Martínez, profesora de la UOC, “muchas veces no nos damos cuenta de la cesión de derechos que otorgamos cuando hacemos uso de un determinado servicio digital. Sólo vemos lo que nos aporta, pero no a qué nos estamos comprometiendo”.

¿Cómo aprende una IA con nuestras imágenes?

Los sistemas de inteligencia artificial aprenden observando miles de imágenes. Como explica Antonio Pita, también profesor de la UOC, “cuando entrenamos una IA para que reconozca una cara, le mostramos muchas fotos de la misma persona con diferentes expresiones y ángulos. Así aprende sus rasgos y es capaz de generar nuevas imágenes hiperrealistas”. Este proceso es la base de los conocidos deepfakes, vídeos falsos donde alguien aparece haciendo o diciendo cosas que nunca ha hecho ni dicho.

Esta tecnología puede ser utilizada para hacer humor, pero también puede tener usos más peligrosos: estafas, manipulaciones políticas o difamaciones personales.

¿Dónde acaban nuestros derechos?

Aunque compartamos imágenes de forma pública, esto no significa que perdamos todos nuestros derechos. Según Eduard Blasi, experto en derecho digital, también consultado por la UOC, en Europa la protección de datos personales está regulada por el RGPD, que obliga a las empresas a obtener el consentimiento explícito para usar imágenes en entrenamientos de IA. Además, el nuevo Reglamento Europeo de Inteligencia Artificial (AI Act) introduce medidas adicionales para limitar el uso de datos personales en sistemas considerados de alto riesgo.

Sin embargo, no todas las plataformas son europeas ni operan bajo las mismas normas. En Estados Unidos, por ejemplo, predomina un modelo de autorregulación mucho más permisivo.

Un riesgo para todos

El robo de identidad digital es uno de los peligros más preocupantes. A partir de unas pocas fotos públicas, una IA puede generar un vídeo falso en el que una persona aparente hablar, sonreír o hacer movimientos reales. A menudo, estas falsificaciones son tan realistas que incluso familiares o compañeros de trabajo pueden no detectar el engaño.

Evitar completamente estos riesgos puede ser casi imposible si se quiere participar activamente en la vida digital. Aún así, hay algunas acciones que pueden ayudar a minimizarlos:

  • Revisar las condiciones de uso de las aplicaciones y servicios digitales.

  • Desactivar opciones que permitan utilizar nuestras imágenes para entrenar IA, cuando sea posible.

  • Evitar compartir fotos comprometidas o demasiado personales, sobre todo si contienen menores.

  • Usar herramientas para detectar contenido manipulado.

  • Y sobre todo, pensar antes de compartir.

Sobre el autor
cropped Projecte nou 5 300x300
Maria Lorenzo
Ver biografía
Lo más leído