El reconocimiento facial y los «deepfakes»: la salvaguarda de la privacidad y la lucha contra la suplantación de identidad.

Muchos/as de nosotros/as de niños/as solíamos imaginar un futuro donde los coches autónomos o semiautónomos volaban por los aires de las grandes metrópolis, mientras se proyectaban carteles luminosos con anuncios de todo tipo, o donde recorríamos la ciudad en lo alto de un monopatín volador.

¿Quién de nosotros/as no ha soñado en ser algún día Marty McFly? ¿Teme encontrarse alguna vez con un «Replicante»? o ¿Ha querido hacer uso de un software de reconocimiento facial como el capitán John Anderton?

code projected over woman
Photo by ThisIsEngineering on Pexels.com

Pues pese que el DeLorean del profesor Doc ya hace 5 años que llegó al futuro (nuestro pasado 2015), las cosas no han cambiado tanto o quizá no somos conscientes de este avance tecnológico.

En nuestro día a día hacemos uso de divertidas aplicaciones como «FaceApp» la polémica aplicación rusa que permite vernos en el sexo opuesto, «ZAO» una aplicación china para reemplazar los rostros de celebridades y estrellas de cine en videoclips con los de la galería de nuestros smartphones, o recientemente «Reface» la antigua App de “Doublicat” una aplicación estadounidense que permite poner nuestros rostros en cualquier tipo de vídeo, no necesariamente tiene que ser el de un famoso, cantante o superhéroe.

El término deepfakes

En todos estos casos estamos ante lo que se ha denominado deepfakes que cogiendo la definición que hace la Oficina de Seguridad del Internauta (OSI) de INCIBE (Instituto Nacional de Ciberseguridad) proviene de un término combinado de deep learning y fake, es decir:

  • Deep learning o aprendizaje profundo hace referencia a una de las ramas de la inteligencia artificial.
  • Fake o falso, hace referencia a la elaboración de falacias en la red, del mismo modo que las fake news.

Por lo tanto, y siguiendo la definición de OSI explicada de forma sencilla, los deepfakes serían:

“vídeos manipulados para hacer creer a los usuarios que los ven que una determinada persona, tanto si es anónima como si es personaje público, realiza declaraciones o acciones que nunca ocurrieron. Para la creación de dichos vídeos, se utilizan herramientas o programas dotados de tecnología de inteligencia artificial que permiten el intercambio de rostros en imágenes y la modificación de la voz”.

Por la definición que hace OSI entrevemos que los deepfakes pueden conllevar importantes riesgos que a simple vista no somos conscientes cuando hacemos uso de las divertidas aplicaciones móviles que apuntábamos anteriormente.

Clasificación, tipología de Deepfakes

Siguiendo con este análisis, es importante tener en cuenta también una clasificación en la tipología de deepfakes entre los que encontramos los llamados deepface donde se superpone el rostro de una persona, animal, personaje en la de otra, o los deepvoice donde a partir de frases y palabras de una persona (normalmente de personajes públicos) se puede llegar a clonar la voz a partir de esos fragmentos. Evidentemente ambas tipologías pueden usarse de forma conjunta.

¿Qué riesgos conlleva entonces en la práctica el uso del “deepfake”?

Aplicaciones móviles a nivel usuario

El primero de ellos, es en relación a las aplicaciones móviles a nivel usuario, muchas de ellas gratuitas, es precisamente esta gratuidad lo que conlleva la explotación de los datos del usuario, pensemos aquí tanto en las fotografías que se alojan en los servidores de la aplicación, como los permisos de acceso a nuestro sistema: galerías, contactos, registro de la IP del dispositivo o incluso la página web que se ha visitado antes de utilizar su sistema.

Lo realmente sorprendente es nuestra aceptación sin reserva a las políticas de privacidad que legitiman por el consentimiento expreso el uso de estos datos.

Recordemos que sobre esta cuestión la regulación básica que rige en nuestro país es la siguiente, la Ley 34/2002, de 11 de julio, de servicios de la sociedad de la información y de comercio electrónico, Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales. La encargada de recoger el Reglamento Europeo (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016.

Sistemas de reconocimiento facial

El segundo de ellos, está relacionado con los sistemas de reconocimiento facial, aplicaciones gestionadas por ordenadores capaces de identificar automáticamente a una persona en una imagen digital. Esto es posible mediante un análisis de las biometrias faciales del sujeto extraídas de la imagen o de un fotograma clave de una fuente de vídeo, y comparándolas con una base de datos.

El reconocimiento facial, está a la orden del día, lo solemos utilizar como credenciales de acceso a aplicaciones móviles de entidades financieras, pago en comercios o incluso de acceso al propio terminal móvil, tableta o portátil. El uso malicioso del deepfake entra por lo tanto en una confrontación directa con los sistemas de reconocimiento facial. Lo que nos haría entrar en el terreno de los ciberdelitos y de la ciberdelincuencia.

No obstante, la posibilidad delictiva es tan amplia que aún debe delimitarse el alcance concreto del uso de esta tecnología, apuntando entre ostros aquellos delitos cuyo bien jurídico protegido es el honor, la propia imagen la intimidad, pasando por el robo de identidad usurpación de estado civil o de identidad, incluso delitos de pornografía infantil y otros delitos sexuales.

Conductas que se recogen en la Ley Orgánica 10/1995, de 23 de noviembre, del Código Penal. Así como en tratados internacionales como es el Convenio sobre la Ciberdelincuencia, hecho en Budapest el 23 de noviembre de 2001.

Ejemplos de deepfakes más polémicos

Como colofón al presente artículo, consideramos al menos interesante ver en la práctica los ejemplos de deepfakes más polémicos, donde en este caso a través del The Washington Post, el mayor y más antiguo periódico de Washington D. C., la capital de los Estados Unidos, nos informa de una noticia en su canal de Youtube de este fenómeno y de los ejemplos más paradigmáticos.

Entre ellos podemos ver a un falso Mark Zuckerberg, pasando por un fraudulento Barack Obama y Donald Trump hasta una ficticia Kim Kardashian.

Quizá el futuro que imaginábamos en el pasado no ha llegado todavía, pero lo que sí debemos preguntarnos es si podemos seguir afirmando aquello de que una imagen vale más que mil palabras.

Creación

Brian Ventura (Abogado). Ver más.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Phone 659141287 E-mail iurisfacil@gmail.com Hours Envíanos un electrónico o whatsapp cuándo lo necesites, (horarios de administración: Lunes a Viernes: 16:00-19:00)
Subir a inicio
search previous next tag category expand menu location phone mail time cart zoom edit close