CUCO es el primer gran proyecto de computación cuántica a nivel nacional y empresarial. Este proyecto persigue avanzar el estado del arte de algoritmos cuánticos y aplicar ese conocimiento a una serie de pruebas de concepto en distintos sectores estratégicos de la economía española como Energía, Financiero, Espacio, Defensa y Logística. En este contexto, se investigarán casos de uso en observación de la Tierra, la lucha contra el cambio climático y el medioambiente, la trazabilidad de la información en toda la cadena de suministro, la optimización y simulación de cálculos financieros complejos, la inteligencia de señales, entre otros. El proyecto ha sido subvencionado por el CDTI y apoyado por el Ministerio de Ciencia e Innovación bajo el Plan de Recuperación, Transformación y Resiliencia.
Con el objetivo de dar a conocer los avances del proyecto, este artículo abre una serie de tres artículos dedicados a explicar varios de los casos de uso que han sido seleccionados por los socios del proyecto, y que serán investigados a lo largo de los próximos tres años.
Caso de uso: FINANZAS
Desde que existen los productos financieros, predecir y modelar su comportamiento ha sido objeto de gran interés en nuestra sociedad. En el año 1900, Louis Bachelier propuso en su tesis doctoral que los activos financieros se podían entender con las matemáticas de un movimiento aleatorio. Desde entonces el mundo financiero ha estado estrechamente vinculado a modelos matemáticos que permitan obtener mejores y más robustos resultados. Hacia 1950, Harry Markowitz desarrolló la llamada Teoría Moderna de Portfolio donde, por primera vez, se entendía que hacía falta limitar el riesgo de una cartera de inversión. En la década de 1970 se empezaron a utilizar los derivados financieros, tradicionalmente ligados a los productos de la agricultura, para proteger a las inversiones de fenómenos inesperados. Todo ello se pudo ir adoptando a gran escala gracias a los ordenadores, que habían surgido hacia mediados del siglo. Con ellos era posible resolver problemas que habrían sido intratables usando lápiz y papel.
Pero los ordenadores no conseguirían aliviar completamente el reto de resolver problemas complejos. Algunos llegan a ser realmente difíciles de resolver cuando se aumenta su tamaño. Pongamos un ejemplo: Encontrar los cuatro activos que mejor replican un índice como el IBEX 35 puede ser una tarea relativamente sencilla, mientras que encontrar los veinte activos que mejor replican un índice como el SP500 es, por la enorme magnitud de posibilidades, un problema imposible de resolver. En estos casos no podemos obtener la solución, sino aproximaciones que pueden no ser lo suficientemente buenas.
La computación cuántica jugaría aquí su papel. En 1981, el físico Richard Feynman propuso que un ordenador basado en las características teóricas de la mecánica cuántica podría resolver problemas de alta complejidad. Esta idea quedó en el ámbito de la investigación fundamental hasta que Peter Shor publicó en 1994 un algoritmo cuántico que, de ser aplicado en ordenadores cuánticos lo suficientemente eficientes, podría resolver fácilmente uno de los retos más difíciles conocidos: la factorización en números primos. Esto impulsó, hasta el día de hoy, el desarrollo de algoritmos cuánticos para su aplicación en diversos campos, como la química, la logística, la criptografía y el ámbito financiero.
Como parte de este esfuerzo científico y tecnológico, BBVA participa en el Proyecto CUCO. En él, siete empresas de diversos sectores y varios Organismos Públicos de Investigación, como el CSIC, Tecnalia y Barcelona Supercomputing Center, tienen como objetivo el desarrollo de casos de uso donde la computación cuántica pueda ofrecer soluciones a problemas hasta ahora extremadamente complejos o directamente irresolubles.
Dentro de este proyecto, BBVA considera varios posibles casos de uso vinculados con el mundo bancario y financiero. Uno de ellos es un algoritmo que busca agrupar los activos de una cartera de inversión. Estos activos pueden ser, por ejemplo, acciones de distintas empresas, divisas, bonos de gobiernos o de empresas o materias primas. Poder agrupar estos activos en base a su comportamiento nos permite reducir la complejidad de la optimización de la cartera de inversión, con lo que podemos encontrar soluciones más robustas. Por un lado, trabajamos en la definición matemática del problema, estudiando distintas codificaciones con las que aprovechar mejor los limitados computadores cuánticos actuales. Por otro lado, experimentamos su implementación en distintas tecnologías cuánticas, como los ordenadores de puertas cuánticas, los llamados “quantum annealers” o por métodos clásicos de inspiración cuántica.
Otro de los casos de uso utiliza una adaptación de este método de agrupamiento para reordenar los activos de una cartera de la forma adecuada. Este reordenamiento puede servir para encontrar inversiones con menos riesgo. La versión clásica original del algoritmo y su versión cuántica, el algoritmo Quantum Hierarchical Risk Parity, se propusieron en 2016. Desafortunadamente, esta primera versión tiene un alto requerimiento de hardware que los ordenadores cuánticos actuales no pueden satisfacer. Por esta razón parte de nuestros esfuerzos se centran en diseñar nuevas metodologías que nos permitan encontrar soluciones a este problema con menos requerimientos. Con ello, podremos construir tipos diferentes de inversiones que puedan adaptarse mejor a instituciones o clientes con necesidades específicas.
Caso de uso: DEFENSA / SEGURIDAD
Tanto en el ámbito civil como en el militar, la importancia de una comunicación inalámbrica sólida y segura es indiscutible. Por un lado, el sector comercial se esfuerza por equilibrar las limitaciones de los recursos espectrales con una demanda de ancho de banda cada vez mayor, incluyendo un soporte multimedia con requisitos específicos de calidad de servicio. Por otro lado, en escenarios tácticos siempre ha sido un reto operar en un entorno hostil, congestionado y disputado. Ambos escenarios pueden beneficiarse de unas eficientes capacidades de monitorización del espectro electromagnético y posterior clasificación de las señales detectadas. El proceso de recopilación de información mediante la intercepción y análisis de señales se conoce como inteligencia de señales (SIGINT). En cuanto a señales electromagnéticas se refiere, el campo de la SIGINT emergió a principios del siglo XX, tras el nacimiento de las comunicaciones por radio que posibilitaron los cruciales avances de grandes científicos como Maxwell, Hertz, Tesla o Marconi. Uno de los primeros ejemplos de uso de esta tecnología ocurrió en 1904, en los preliminares de la guerra ruso-japonesa, momento en que los británicos tuvieron la oportunidad de interceptar señales inalámbricas navales rusas. Otro de los ejemplos más celebrados de la importancia de la SIGINT tuvo lugar en la segunda guerra mundial. Durante la misma, un equipo de matemáticos y criptólogos británicos liderado por Alan Turing – considerado el precursor de la informática moderna – consiguió descifrar las señales de radio nazis codificadas mediante la máquina Enigma. Se estima que este hito acortó la guerra en al menos dos años y fue un factor determinante para la victoria del bando Aliado.
Aunque los problemas abordados por la SIGINT se han estudiado durante décadas, el reciente rejuvenecimiento del aprendizaje automático o machine learning (ML) ha dejado una huella significativa en este dominio. Sin ir más lejos, el Departamento de Defensa de EE. UU. ha asegurado en relación con la invasión rusa de Ucrania que el Pentágono está utilizando herramientas de ML para analizar grandes cantidades de datos, generar inteligencia útil para el campo de batalla, y aprender sobre las tácticas y la estrategia rusas, lo que presumiblemente le está permitiendo asistir al bando ucraniano sin participar directamente en el conflicto.
De hecho, los problemas que surgen en el campo de la SIGINT se formulan con frecuencia como problemas de clasificación, detección, estimación y optimización. Las técnicas de ML pueden proporcionar soluciones elegantes y prácticas a todos estos problemas. Dos de los más importantes son: 1) El desentrelazado, identificación y clasificación de señales provenientes de emisores RADAR desconocidos, lo que puede proporcionar información clave sobre éstos; y 2) El seguimiento de fuentes con baja probabilidad de intercepción utilizadas por las más avanzadas radios militares y radiocontroles (de drones, UAVs…), principalmente aquellas que usan técnicas de espectro ensanchado basadas en saltos en frecuencia (FHSS), las cuales son muy difíciles de seguir debido a sus cambios de frecuencia cuasi-instantáneos y pseudoaleatorios, complicando por tanto la aplicación de contramedidas tales como el uso de interferencias intencionadas o jamming. Ambos problemas pueden abordarse mediante el análisis de imágenes denominadas espectrogramas (diagramas tiempo-frecuencia que muestran la distribución espectral de energía de una señal por ventanas de tiempo). Diferentes métodos de ML, como las redes neuronales, son muy adecuados para el análisis de imágenes y la búsqueda de patrones en éstas, lo que puede proporcionar importantes ventajas en cuanto a robustez o capacidad en tiempo real, y especialmente en materia de clasificación de objetivos.
Sin embargo, la tecnología SIGINT de DAS Photonics, posibilita la detección de señales en un gran ancho de banda instantáneo de más de 40 GHz. Como consecuencia, la clasificación de las señales interceptadas requiere procesar una enorme cantidad de información. A pesar de las mejoras que el ML puede introducir, dicho procesado es tan costoso que ha de realizarse off-line en muchos casos.
Es aquí donde los sistemas cuánticos podrían marcar la diferencia, pues éstos son capaces de producir patrones atípicos que los sistemas clásicos no pueden generar de manera eficiente, por lo que es razonable postular que las computadoras cuánticas podrían superar a las clásicas en tareas de ML, lo que se conoce como aceleración cuántica. La aceleración del aprendizaje automático cuántico o QML ya se ha demostrado en algunos casos, pero los desafíos existentes tanto en software como en hardware siguen siendo considerables, y el QML no ha sido utilizado aún para abordar los problemas de SIGINT mencionados. En CUCO, nos proponemos desarrollar algoritmos QML con este fin y analizar su viabilidad y los beneficios que su uso supondría.
Caso de uso: ESPACIO
Dentro del campo de la observación de la tierra se abarcan problemas de muy diversa índole, generalmente a través del análisis de imágenes tomadas en distintas bandas de radiación o emisión electromagnética. Sin embargo, previo a estos análisis, los propios operadores de satélites han de enfrentarse a un problema de optimización de recursos, el cual puede describirse de la siguiente forma:
Dado un conjunto de imágenes solicitadas para un paso de órbita de un satélite, el objetivo es el de determinar cuál es el subconjunto de imágenes que se debería tomar en dicho paso de órbita, tratando de optimizar cierta(s) medida(s) (beneficio, importancia, capacidad, etc.).
En la práctica totalidad de los casos, tomar el conjunto completo de imágenes solicitadas no es factible, dado que la órbita del satélite es fija, y existen una serie de restricciones que limitan las combinaciones de imágenes posibles de adquirir. Por ejemplo, algunas imágenes no pueden ser tomadas con la misma cámara dado que existen restricciones de tiempo de maniobra, tiempo de captura, proximidad geográfica, etc.
Este problema pertenece al campo de la optimización combinatoria, en concreto se puede ver como un problema de optimización lineal binaria con restricciones, que sabemos que pertenece a la clase de complejidad NP. Podemos hacernos una idea de esta complejidad con un ejemplo muy sencillo: supongamos que tenemos que elegir un subconjunto de 30 imágenes solicitadas. Esto significa que podemos tomar una única imagen, cualquier combinación de dos imágenes, cualquier combinación de tres imágenes, y así hasta llegar a tomar las 30.
De estas más de mil millones de posibles soluciones, tenemos que desechar las que no cumplan con las restricciones del problema, cosa que, por supuesto, no es trivial. Finalmente, tendríamos que evaluar cada una de las soluciones restantes para obtener la que maximiza el valor.
Con tan solo 30 imágenes el problema ya resulta bastante complejo. En la práctica, donde los problemas a resolver involucran miles de imágenes, podemos imaginarnos por qué cualquier algoritmo clásico resulta poco eficiente, haciendo necesario descartar directamente los métodos exactos y forzando a recurrir a algoritmos (meta) heurísticos, cuyos tiempos de ejecución y garantías podrían ser mejorados por algoritmos cuánticos.
Uno de los paradigmas de computación cuántica más prometedores en la actualidad es el de Quantum Annealing (QA), especialmente propicio por sus características para problemas de optimización. A grandes rasgos, su funcionamiento es el análogo cuántico al de tirar una pelota desde lo alto de un sistema montañoso: la pelota buscará de manera natural el estado de mínima energía, un valle. Nuestra tarea es por tanto preparar esa pelota y sistema montañoso matemáticamente para que representen el problema que queremos resolver y ejecutar los algoritmos cuánticos, aprovechando conceptos como la superposición, entrelazamiento, coherencia o efecto túnel para poder resolver el problema de manera más eficiente que con computación clásica.
La selección de este problema no ha sido casual, después de una larga evaluación de más de 15 casos de uso distintos, se ha identificado que este es un problema presente en el día a día de la industria aeroespacial: la adquisición óptima de imágenes es un problema que debe resolver cualquier operador de satélites de manera periódica. Además, es frecuente que las peticiones de imágenes lleguen a lo largo del tiempo, siendo necesario en la práctica resolver para una única planificación, varios problemas, incluyendo las nuevas imágenes a medida que van llegando. Disminuir el tiempo de ejecución de estos algoritmos puede suponer una ventaja competitiva, además de allanar el camino para resolver en un futuro problemas con múltiples satélites, que requieren de tiempos de cómputo incluso mayores.
Nuestro reto común
Estamos asistiendo a la denominada segunda revolución cuántica enfocada a explotar los enormes avances que se han logrado en los últimos años en la capacidad de manipular la materia a nivel cuántico. Estos avances están impulsando rápidos desarrollos en el campo de la computación cuántica que tendrán un enorme impacto para la Inteligencia Artificial -entendiendo bajo este paraguas genérico las tecnologías de computación para resolver problemas de todo tipo relacionados con la percepción, interacción, comprensión, simulación, predicción, recomendación, optimización… Y la Inteligencia Artificial es la tecnología clave de la Transformación Digital. Las capacidades de la IA para modelar, inferir, decidir y actuar permitirán orquestar eficientemente la movilidad autónoma, ajustar exactamente la producción de energía al consumo instantáneo, sincronizar perfectamente las cadenas logísticas a las necesidades de producción y suministro, adecuar la producción alimentaria a la demanda y optimizar otros muchísimos más procesos con impacto social, económico y medioambiental.
Para estar preparados cuando se desplieguen plenamente todas estas tecnologías es preciso crear las capacidades ahora. Las organizaciones van a necesitar desarrollar una combinación de talento singular y complejo para crear aplicaciones con impacto. La combinación de disciplinas de conocimiento y aplicación que se requiere en este nuevo campo es muy difícil de generar y copiar, y necesita un tiempo de consolidación sostenido.
Este proyecto dentro del Programa Misiones del CDTI está contribuyendo a crear una plataforma colaborativa de capacidades punteras en computación cuántica que sirve para acelerar el despliegue de aplicaciones con impacto sostenible en las industrias estratégicas en España.
Para lograr este objetivo general, el proyecto se articula en torno a las siguientes cuatro claves:
- Enfoque a la creación de un portafolio de casos de negocio complementarios y con sentido. Las limitaciones actuales de las plataformas de computación cuántica condicionan la generación de soluciones prácticas desde el punto de vista comercial. Por ello, se han seleccionado casos de negocio complementarios y relevantes orientados a problemas de múltiples sectores que puedan escalar en complejidad. Así, a medida que el hardware evolucione, las soluciones algorítmicas nativas en tecnologías cuánticas desarrolladas en el proyecto podrán escalar fácilmente y dar respuesta a la complejidad completa de los problemas abordados.
- Desarrollo de tecnología nativa en computación cuántica para el tipo de problemas de los casos de negocio. Se aborda la generación de tecnología propia en aproximaciones de codificación de datos y algorítmicas para los problemas de los casos de negocio: optimización, aprendizaje máquina y simulación, tanto nativa cuántica como híbrida y de inspiración cuántica.
- Fortalecimiento de una comunidad especializada y abierta en la conceptualización, identificación y desarrollo de soluciones integrales. La densa interacción de los equipos de empresas y Organismos Públicos de Investigación participantes, o la colaboración con otras entidades en un esquema abierto, es una forma de acelerar el aprendizaje y de fortalecer un ecosistema orientado a aplicaciones de cuántica con impacto en el tejido industrial.
- Contribución a cerrar la brecha de mercado. El éxito en el mercado de las aplicaciones, productos y servicios derivados de las tecnologías de computación cuántica requiere de la creación de ecosistemas compactos que ayuden al ensamblaje de la oferta y la demanda de soluciones específicas en estas tecnologías. El proyecto se orienta precisamente a dominios donde la demanda potencial de este tipo de soluciones tiene fortalezas: cadenas de valor más compactas, mayor número de agentes en la cadena de valor de aplicación, mejor posición competitiva, acceso directo a agentes tractores globales, capacidad de influencia en aspectos normativos y estandarización, políticas asociadas, etc. Se espera así contribuir a reducir la brecha de mercado desde las primeras etapas.
Estratégicamente, al final del proyecto se habrán desarrollado las primeras capacidades con masa crítica para el desarrollo de soluciones de computación cuántica contribuyendo a la generación de un ecosistema singular en la materia en España.
Autores del artículo:
- Jorge Luis Hita, Investigador en Computación Cuántica en BBVA
- Carlos García Meca, Director de Investigación en DAS Photonics
- Antón Makarov Samusev, Data Scientist en GMV
- Rosalia Esquivel Méndez, Jefa de Proyecto en GMV
- Esther Villar Rodríguez, Team Leader: Quantum Technologies / DIGITAL en TECNALIA.
- Guillermo Gil Aguirrebeitia, Impact Development: Quantum Technologies / DIGITAL en TECNALIA.