PASIÓN POR EL MUNDO DIGITAL

Chema Alonso empezó explicando su viaje personal por el mundo de la informática desde la infancia hasta llegar a Telefónica. En este relato, puso de relieve su pasión por los datos y la programación, así como su entrada en el terreno de la seguridad informática. Actualmente, como Chief Digital Officer (CDO), Chema Alonso lidera ámbitos como innovación, datos, plataformas y productos y servicios digitales en la empresa.

Una de las tareas de Telefónica es -en palabras de Chema Alonso- “ver hacia dónde va el mundo,  identificar qué nos tiene que preocupar y saber cómo utilizar la tecnología de manera que pueda ser un disruptor para los negocios”. 

Dentro de esta visión global, el CDO de Telefónica citó la importancia del despliegue rápido de nuevos tipos de redes de telecomunicaciones, citando los ejemplos de Starlink o de Helium, esta última ofrece criptomonedas a las personas que dan su apoyo al proyecto de una red wireless descentralizada. 

En el área de trabajo denominado “ideas locas”, se exploran libremente diversas posibilidades en todos los ámbitos del mundo digital

En el escenario de los próximos desarrollos, Chema Alonso hizo énfasis en la llegada de las redes para drones en las ciudades “que serán necesarias para ordenar el tráfico de estos dispositivos por determinadas calles y corredores, de modo que puedan llevar mercancías, órganos, o personas con seguridad y sin extraviarse”. Citó la compañía Volocopter como ejemplo de la explotación comercial de este futuro nicho de negocio.

Telefónica -señaló- experimenta con todas estas nuevas tecnologías en un área de trabajo denominada Ideas Locas, donde se exploran libremente diversas posibilidades en todos los ámbitos del mundo digital: criptomonedas, IA, blockchain, etc. Y, en este marco, uno de los temas en el que ha centrado su interés es el de los “humanos sintéticos”, deep fakes creados por la lA para situar estos “falsos humanos” en diferentes contextos.

ÉTICA FRENTE A LOS REPLICANTES

Durante su presentación, Chema Alonso planteó “si vamos a ser capaces de crear replicantes y detectarlos”. Utilizó intencionalmente el término replicantes en referencia a la película Blade Runner, donde esta denominación se aplica a humanos artificiales creados a partir de bioingeniería, destinados a trabajos especiales fuera de la Tierra, y que carecen de empatía.

Siguiendo el hilo, planteó también el dilema ético de qué pasaría si se le diera una patada a un humano artificial ¿sería lo mismo que hacerlo a una tostadora o existirían otras implicaciones? 

Blade Runner mostraba la imprevisibilidad del desarrollo tecnológico y su capacidad para “saltarse los controles

A partir de ahí pueden surgir cuestiones todavía más complejas como si a tal ser deberían otorgársele “derechos humanos”, tomando en cuenta el riesgo de que nos pueda esclavizar (dada su posible superioridad). “Este debate, que ya aparecía en Blade Runner lo estamos teniendo ahora mismo”, aseguró. 

En el clásico de ciencia ficción, los “humanos artificiales” quieren “sentir y tener experiencias” y el sistema opta por una solución drástica para controlarlos: ponerles fecha de caducidad. Otro elemento de seguridad frente a los replicantes es prohibirles su entrada a la Tierra, pero, como algunos logran hacerlo, deben ser buscados, identificados y  retirados, un eufemismo para no decir ejecutados. 

La película mostraba, en definitiva, la imprevisibilidad del desarrollo tecnológico y su capacidad para “saltarse los controles”. En Blade Runner, la manera de distinguir los replicantes de las personas es un test especial que busca la ausencia de reacciones humanas. 

CONTRUYENDO FAKES DE PERSONAS

Chema Alonso prosiguió su exposición recordando que, hasta el momento, no se han podido crear replicantes como en Blade Runner, pero sí desarrollos orientados a servicios cognitivos, que son aquellos que cubren capacidades humanas como: la percepción de objetos, la identificación de personas, la comprensión lectora, el habla, la traducción, la redacción de textos, entre otros. “Estas son las capacidades en las que se ha estado trabajando dentro de la IA en la última década”.

El objetivo de los servicios cognitivos es superar a los humanos en la performance de las capacidades mencionadas. Incluso existe un indicador (la paridad humana) que señala si un servicio de este tipo ha superado la capacidad humana. Se mide comparando la tasa de error de la IA con la tasa de error media humana en una tarea/acción determinada.

Según el CDO de Telefónica, “se ha entrenado a la IA para que sea perfecta a la hora de reconocer personas”. Este progreso ha servido de base para llegar después a técnicas que permiten discriminar si una persona es verdaderamente ella o es una imitación. Pero, igual que existe una IA capaz de reconocer a una persona real, también puede entrenarse una IA para crear la falsificación de una persona. 

Esta última posibilidad se nutre de tecnologías como, por ejemplo, la sincronización de voz, con las que se puede hacer decir a alguien cualquier cosa con una absoluta sensación de realidad. 

Igual que existe una IA capaz de reconocer a una persona real, también puede entrenarse una IA para crear la falsificación de una persona.

Un experimento paradigmático es el realizado en una universidad norteamericana en 2020 donde una IA “introducía” sincronizadamente la voz de Barack Obama a una imagen manipulada de sus labios, de modo que daba la sensación de que el expresidente americano pronunciaba realmente unas palabras que nunca había dicho. 

La manipulación puede ir todavía más lejos y llegar a poner a alguien la cara de otra persona manteniendo los mismos movimientos y gestual. Antes esto requería una larga y compleja manipulación de un video, pero ahora una IA lo puede hacer incluso en tiempo real. Con estas herramientas, una persona puede ofrecer una conferencia o participar en una reunión usando el rostro de otra, por poner solo un ejemplo. “Una práctica que ya es bastante habitual”, según Chema Alonso.

Naturalmente, se abre también la puerta a usos mal intencionados y estafas de todo tipo suplantando a las personas. Una voz humana puede ser clonada en cuestión de minutos por una IA-aseguró Chema Alonso- y ser utilizada para fines fraudulentos. Cuando la voz es un parámetro biométrico, como ocurre en muchos lugares, esto genera preocupación. La imitación de una voz puede llegar a ser tan perfecta que llegue a superar cualquier barrera de seguridad.

CÓMO DETECTAR UN DEEP FAKE

Teniendo en cuenta esta sofisticación de la IA a la hora de crear “humanos sintéticos” la pregunta que se plantea es cómo detectar que no se está ante una persona real sino de un fake. Chema Alonso explicó que existen abundantes líneas de investigación para llevar a cabo estas detecciones. Se centran en la búsqueda de anomalías reconocibles en la construcción de los humanos sintéticos, tanto a nivel de imagen como de sonido. De hecho, existen IA capaces de detectar un fake en tiempo real dentro de un streaming.

Chema Alonso señaló que los algoritmos que generan deep fake dejan unos rastros muy concretos que se pueden reconocer. Otra vía para identificar el deep fake consiste en utilizar el contaje del parpadeo medio humano y contrastarlo con una imagen determinada para comprobar si la persona que aparece en ella parpadea de forma normal o no.  Incluso se puede obtener el patrón de parpadeo real de una persona y se puede utilizar para comprobar si es realmente ella o un sustituto generado por IA. 

También se reconoce en ocasiones el deep fake por la falta de coherencia en la dirección de la mirada, y por el reflejo de la luz en el globo ocular. Si dos ojos se hallan en una misma posición están a una distancia igual del foco de luz más cercano con lo cual tiene que haber simetría en el reflejo de dicha luz. La IA puede calcular si existe o no esa simetría. 

Chema Alonso advirtió que en un futuro el deep fake puede llegar a conseguir un alto realismo y ser capaz de reproducir a la perfección latidos y parpadeos, entre otros aspectos

La IA también posee herramientas para detectar la coherencia (o falta de ella) de la estructura ósea en una imagen en 3D o el latido cardiaco, signos que también pueden llegar a identificar un deep fake. Son detalles que escapan a la mirada humana pero no a la de la máquina.

El reconocimiento del deep fake también se puede aplicar al audio y aquí entran otro tipo de variables, como el reconocimiento de la voz auténtica de alguien, con la entonación que le es propia y otros parámetros peculiares de sonido. 

Todas estas técnicas deben enfrentarse a la capacidad creciente de las IA de deep fake de corregir los fallos que las delatan. Algunas de ellas logran un elevado nivel de perfección, según mostró Chema Alonso con diversos ejemplos. En este sentido, advirtió que en un futuro el deep fake puede llegar a conseguir un alto realismo y ser capaz de reproducir a la perfección latidos y parpadeos, entre otros aspectos. “Cada vez será más difícil saber si estás hablando con una persona o no”, afirmó.

PERCEPCIÓN DEL PÚBLICO Y CONFIANZA

El mundo de los humanos sintéticos se está utilizando para el fraude y el crimen, pero también, en un sentido radicalmente positivo, en el mundo de la empresa: en muchos de los servicios de cara al público se van a reemplazar las personas reales por estas creaciones de la IA.

Chema Alonso relató un experimento realizado en 2022 donde se convocó a 500 personas y se les mostró imágenes de humanos de verdad y de humanos sintéticos mezcladas. Las personas tenían que distinguir entre unos y otros basándose en su propia percepción. “El resultado fue que, con 20  años de desarrollo cognitivo a nuestras espaldas solo acertaban el 48%”, destacó. Este ocurrió, en su opinión, “porque cada vez estamos disociando las imágenes que vemos, por ejemplo en las redes sociales, de las personas de verdad”. 

En el mismo estudio se hizo una segunda vuelta con una pequeña variación: se comunicaba a cada participante si había dado en el clavo en su respuesta. Con ello se llegó a un 52% de aciertos. Se supone que esta información “ayudaba” a los participantes a agudizar su percepción.

En la tercera vuelta, se preguntó qué personas proporcionaban un mayor grado de confianza y, sorprendentemente, las imágenes de humanos sintéticos obtuvieron más votos que las de los humanos reales. De ello cabe deducir que una empresa que ofrezca servicios a través de los primeros podría llegar a inspirar mayor confianza entre  sus clientes. 

PREGUNTAS Y RESPUESTAS

Tras su exposición, que recogió un sonoro aplauso, Chema Alonso contestó algunas preguntas del público. La primera de ellas se centró en la cantidad de información que se debe proporcionar a una IA para que genere un humano sintético. La respuesta fue que en los últimos 5 años esa cantidad ha bajado de manera espectacular. Por ejemplo, en el caso de la voz es suficiente con unos pocos ficheros de audio de 30 segundos de duración. En cuanto al coste económico, un video de alta calidad puede estar alrededor de los 500 euros.

Estos mismos métodos también son útiles para entrenar a robots en la ejecución de movimientos. Basta con que “vean” cómo los realiza un humano para imitarlos a la perfección. En resumen, la cantidad de datos y el tiempo para conseguir este tipo de resultados sigue reduciéndose progresivamente.

El CDO de Telefónica señaló que sería bueno que en el caso de la IA pudiéramos anticiparnos a algunos de sus efectos

La siguiente pregunta fue en el sentido de si se debe parar la evolución de la IA hasta que exista una regulación por parte de la Unión Europea. Chema Alonso dijo al respecto que “si se introducen en la sociedad tecnologías que no se comprenden bien, estas pueden dar problemas” en referencia concreta a fenómenos como el papel de Cambridge Analytica en las elecciones presidenciales americanas de 2016. También cito los problemas potenciales que pueden surgir de la relación entre armamento e IA, así como la preocupante cuestión de la adicción a las redes que también viene alimentada continuamente por los algoritmos.

Chema Alonso subrayó que, como cualquier otra tecnología, la IA es susceptible de usarse para aspectos sumamente beneficiosos pero también para otros usos menos recomendables.

Pero a pesar de todo, señaló que en este momento existe una gran cantidad de regulaciones en internet, especialmente centradas en cuestiones de privacidad. Estas regulaciones han llegado después de que se vieran algunos efectos de la red. Desde este punto de vista -argumentó- sería bueno que en el caso de la IA pudiéramos anticiparnos a algunos de sus efectos. Esto es necesario, concluyó, porque estamos ante “una disrupción total para la sociedad”.