Víctor Deutsch, profesor de ciberseguridad en el Grado de Ingeniería de Desarrollo de Software de IMMUNE.
En los últimos días ha estado circulando en las redes sociales mucho contenido relacionado con EPIK, una aplicación que utiliza inteligencia artificial para crear imágenes con nuestra cara en varias versiones de anuario de instituto americano de los 90. Aunque no es una tecnología muy disruptiva, dado que ya existían aplicaciones para manipular y crear este tipo de imágenes, la novedad es que la compañía la ha puesto a disposición del público por tan sólo 6,99 dólares. A un precio tan asequible, las descargas se han disparado por millones inundando las redes sociales, donde celebridades e influencers como Chanel, Laura Escanes o Lola Índigo han participado bajo el hashtag #YearBookChallenge.
fotos de celebridades generadas por la aplicación EPIK
La popularidad de EPIK ha vuelto a abrir el debate sobre la seguridad de este tipo de aplicaciones que funcionan con IA y se apropian de nuestros datos e imágenes, sobre todo después del caso en Almendralejo, en el que un grupo de adolescentes fue víctima de deepfakes pornográficos hechos y difundidos por sus compañeros de colegio.
En el caso de EPIK, las condiciones de utilizar la aplicación conceden, con total libertad, la cesión de datos (geolocalización, información de uso del dispositivo móvil e imágenes) de los usuarios a terceros, durante 3 años o hasta que el perfil sea cerrado. Sin aceptar estos requerimientos, no es posible usar la herramienta.
Es muy probable que las ganancias de EPIK no provengan tanto de las cuotas de suscripción actuales, sino del valor de futuro que pretende crear.
Por un lado, hay una carrera tecnológica entre compañías para desarrollar aplicaciones de creación de contenido digital que sea cada vez más parecido a la realidad, hasta que sea prácticamente indistinguible. Es decir, generar “mundos virtuales” que produzcan experiencias en el usuario que despierten los mismos estímulos que en una situación real. Aunque la idea de tener un “metaverso” a corto plazo parece haber sido exagerada, la industria sigue trabajando en esa dirección. ¿Y qué es lo que necesita la industria para mejorar sus aplicaciones? Muchísimas imágenes espontáneas y diversas que les permita enriquecer sus “motores” de machine learning e ir ganando precisión paso a paso. Con este lanzamiento, EPIK ha conseguido millones de voluntarios “altruistas” para sus pruebas.
Por otro lado, los expertos legales advierten que las condiciones de servicio de EPIK, una empresa coreana, facilitan la compartición de los datos privados de los suscriptores con otros business partners. Esto abre la puerta a que estos datos sean comercializados para otros fines que no podemos imaginar. Algunos probablemente legales y dónde los registros puedan anonimizarse o agregarse. Pero también pueden ser utilizados para afilar los algoritmos de publicidad dirigida o el suministro de contenidos no solicitados.
Detrás de todo servicio barato o gratuito podemos encontrar siempre el trade off entre privacidad y funcionalidad. Es importante tenerlo en cuenta a la hora de utilizar este tipo de herramientas.
Estas aplicaciones tan accesibles abren la posibilidad de que simples aficionados (sin necesidad de pertenecer a una gran organización criminal) tengan a mano herramientas para acciones fraudulentas o campañas poco éticas. Sin ir más lejos en los últimos días, en algunas redes sociales como LinkedIn, están apareciendo perfiles con imágenes manipuladas muy difíciles de detectar, salvo que se utilicen filtros de imágenes o se reconozcan ciertas características o comunes. O que la imagen sea “demasiado buena” para ser real.
¿Qué se busca? Llamar la atención en un contexto donde recibimos muchísimo contenido o generar algún tipo de afinidad a través de la ropa, las características físicas o el tipo de actividad que representa la foto. Con más razón la accesibilidad de esta tecnología repercutirá en redes como Tik Tok, Reddit o similares.
¿Qué se puede hacer? En general, tener los mismos signos de alerta que ante cualquier contacto online no solicitado: un cierto escepticismo que lleve a comprobar la identidad y las intenciones del contacto. Ser amable, sÍ, pero cuidadosos en los datos que revelamos y estar siempre dispuestos a denunciar cuando detectamos un abuso. De la misma forma en que lo haríamos en el “mundo físico”.
Paseo de la Castellana 89, 28046 Madrid
hello@immune.institute © IMMUNE Technology Institute. All rights reserved.