Ni mágicos ni los más veloces: mitos y realidades sobre los ordenadores cuánticos

(Por Elías F. Combarro, Universidad de Oviedo) En octubre de 2019, la computación cuántica acaparó durante varios días titulares de noticias en todo el mundo. Un equipo de investigadores del gigante tecnológico Google había conseguido alcanzar la supremacía cuántica, venciendo a los supercomputadores más grandes del planeta con un ordenador cuántico. No solo eso, sino que la diferencia de tiempos resultaba sencillamente apabullante: unos pocos minutos frente a los miles de años necesarios para realizar el mismo cálculo con un ordenador tradicional.

Image description

Decenas de artículos y reportajes en prensa, radio y televisión se hicieron eco de este hito histórico e intentaron explicar al público no especializado en qué consistía realmente el logro de Google y qué eran esos misteriosos ordenadores cuánticos que se habían utilizado para conseguirlo. Pese a su buena intención, la mayor parte de estas explicaciones deben haber sembrado más dudas que las que consiguieron aclarar.

Nada de magia ni fantásticos superpoderes

En los artículos de divulgación sobre computación cuántica es habitual encontrar una serie de analogías e imágenes recurrentes que no se corresponden con la realidad y que contribuyen a crear falsos mitos alrededor de las verdaderas capacidades de los ordenadores cuánticos.

Una de las más repetidas es aquella de que “un ordenador cuántico encuentra la solución a un problema probando simultáneamente todas las opciones posibles”. Esta explicación no simplifica en demasía el funcionamiento de los computadores cuánticos. Más bien parece dotarlos de fantásticos superpoderes mediante los que completar cualquier cálculo es cuestión de pulsar un botón y esperar unos pocos segundos.

Pero, entonces, ¿no es cierto que un ordenador cuántico usa un paralelismo masivo para explorar, al mismo tiempo, todas las soluciones de un problema? Como en muchas cosas que tienen que ver con el mundo cuántico, la respuesta es, a la vez, sí y no. Es verdad que una de las principales propiedades en las que se apoyan los algoritmos cuánticos es la superposición, esa misteriosa tendencia de ciertos sistemas físicos a encontrarse en una combinación de varios estados distintos. Pero esa es únicamente una parte, y bastante pequeña, de toda la historia.

Podríamos definir la computación cuántica como la disciplina que estudia el uso de las propiedades de las partículas subatómicas para realizar cálculos. Entre estas propiedades se encuentra, sí, la superposición, pero también el entrelazamiento y la interferencia.

En cierta forma, podríamos decir que un algoritmo cuántico primero crea una superposición de muchas posibilidades a explorar, luego entrelaza estas posibilidades con sus resultados y, finalmente, consigue que las soluciones malas interfieran entre sí para que solo sobrevivan aquellas que nos interesan.

Esta fase de aniquilar opciones desfavorables es la parte más difícil y delicada de todo el proceso. Se trata de una especie de compleja coreografía matemática, por usar las palabras de Scott Aaronson y Zach Weinersmith, que solo sabemos llevar a cabo en algunos problemas concretos. Es más, hace tiempo que se ha demostrado que en determinadas tareas no es posible aprovechar la computación cuántica para conseguir acelerar los cálculos con respecto a los ordenadores tradicionales.

Un ordenador cuántico no es, por tanto, ese dispositivo mágico capaz de resolver al instante cualquier problema que a veces nos quiere vender la prensa sensacionalista. Pero tampoco es, simplemente, un ordenador más rápido.

DAQ / Telos

No solo más rápidos

Otra de las falacias que es habitual encontrar en los artículos populares sobre ordenadores cuánticos es la reducción de todas sus capacidades a un mero incremento de velocidad. He perdido la cuenta de la cantidad de ocasiones en las que me he encontrado explicaciones como “científicos desarrollan un ordenador cuántico un millón de veces más rápido que los ordenadores tradicionales”. Por llamativas que puedan resultar estas afirmaciones, son totalmente erróneas.

Estamos acostumbrados a que, cada pocos meses, los grandes fabricantes de microchips anuncien nuevos desarrollos que consiguen ser un veinte, un treinta o un cincuenta por ciento más veloces que sus predecesores. Pero un ordenador cuántico no basa su funcionamiento en un simple avance en la tecnología que permita hacer las mismas operaciones de forma más rápida.

Por un lado, es posible que para algunas tareas un ordenador cuántico no supere en velocidad a un ordenador clásico. Pero es que en los casos en los que un computador cuántico ofrece una ventaja sobre los dispositivos tradicionales, las diferencias no se pueden medir con un único número.

Un ordenador cuántico ejecuta algoritmos radicalmente diferentes de los que usa un ordenador clásico. Esto hace que la ventaja del dispositivo cuántico crezca más cuanto más grande sea el tamaño del problema que queremos resolver. Por ejemplo, para problemas de búsqueda en listas, un ordenador cuántico será cinco veces más rápido que uno tradicional con cien datos, cincuenta veces más rápido con diez mil elementos y quinientas veces más rápido con un millón de registros.

Aplicaciones

Es precisamente este aumento de la ventaja de los ordenadores cuánticos al crecer el tamaño de los datos a procesar lo que los hace especialmente atractivos a la hora de abordar problemas que son intratables con ordenadores tradicionales. Es el caso de tareas como encontrar los factores de números enteros muy grandes, en cuya dificultad se basa la seguridad de muchos de los protocolos de cifrado que se usan en nuestras comunicaciones digitales.

El tiempo necesario para resolver este problema utilizando los mejores algoritmos clásicos disponibles crece casi exponencialmente con la longitud de los números, por lo que aumentar en unas pocas decenas de bits el tamaño de una clave la haría millones de veces más segura. Sin embargo, el matemático Peter Shor demostró hace más de veinte años que romper este tipo de cifrado sería viable en la práctica si se usaran algoritmos cuánticos.

La criptografía no es el único campo en el que los ordenadores cuánticos pueden ofrecer una gran ventaja con respecto a la computación tradicional. Por ejemplo, la simulación de nuevos materiales o el estudio de compuestos químicos son dos de las aplicaciones más prometedoras de la computación cuántica. Se trata, nuevamente, de tareas extremadamente difíciles para los ordenadores clásicos porque el número de parámetros que describen el comportamiento de los sistemas físicos y químicos crece exponencialmente con la cantidad de partículas que los componen. Pero las propiedades cuánticas de este tipo de sistemas hacen que su simulación con ordenadores cuánticos resulte natural, como señaló el físico Richard Feynman incluso antes de que la computación cuántica existiera como disciplina científica.

Así, son muchos los investigadores que en los últimos años han desarrollado algoritmos específicamente pensados para estudiar propiedades de moléculas químicas mediante ordenadores cuánticos. Uno de los más famosos es el llamado Variational Quantum Eigensolver (VQE), que presenta la particularidad de poder ser usado incluso con los ordenadores cuánticos pequeños y sensibles al ruido de los que disponemos hoy en día.

Con este método, se ha conseguido simular en hardware cuántico real algunas moléculas de tamaño reducido, alcanzando una precisión equivalente a la de los cálculos clásicos. Aunque aún estamos lejos de superar a los ordenadores tradicionales en esta tarea, el ritmo de crecimiento de las capacidades de los computadores cuánticos y las mejoras en los algoritmos que se utilizan nos hacen suponer que posiblemente esta sea una de las primeras aplicaciones prácticas de la tecnología.

DAQ / Telos

Computación cuántica e inteligencia artificial

Otros campos en los que la investigación de las aplicaciones de la computación cuántica es especialmente intensa en la actualidad son la inteligencia artificial y la optimización. En concreto, son varios los algoritmos cuánticos que se han propuesto para acelerar las tareas implicadas en el entrenamiento de modelos de machine learning a partir de grandes colecciones de datos.

En algunos casos, con técnicas parecidas a las empleadas por Shor en el desarrollo de su algoritmo de factorización, se consigue una ganancia exponencial con respecto al correspondiente método clásico. Sin embargo, puesto que debemos trasladar uno a uno los datos al ordenador cuántico desde los ficheros en que se almacenan, el cuello de botella se encontraría no en el procesamiento de la información, sino en la lectura de la misma. Posibles soluciones serían el uso de datos captados directamente con sensores cuánticos, lo que evitaría tener que cargarlos desde un dispositivo externo, y el desarrollo de memorias cuánticas que permitan leer datos en superposición.

Además del estudio de técnicas para acelerar los procesos del aprendizaje automático clásico, también se investigan modelos puramente cuánticos como, por ejemplo, las llamadas redes neuronales cuánticas. Puesto que estas propuestas son relativamente recientes, no se conocen aún todas sus capacidades, pero se dispone de evidencias que muestran que su rendimiento es superior al de los métodos clásicos con ciertos conjuntos de datos creados de forma artificial.

Como bien ha señalado John Preskill, uno de los mayores expertos en computación cuántica del mundo, del mismo modo que las aplicaciones de las redes neuronales clásicas se han ido desarrollando sin necesidad de tener, en todos los casos, una teoría sólida y exhaustiva que las sustentara, el aumento en la disponibilidad de ordenadores cuánticos en los que ejecutar y ajustar redes neuronales cuánticas muy posiblemente conducirá a encontrar casos de uso que hoy no podemos prever.

Los ordenadores cuánticos no son la solución a todos los problemas computacionales y de tratamiento de datos que podamos plantear. No son dispositivos mágicos con los que se pueda realizar instantáneamente cualquier cálculo. Pero tampoco son solamente versiones más rápidas de los ordenadores de los que disponemos hoy. En las tareas en las que es posible obtener una ventaja mediante el uso de la computación cuántica, la ganancia en tiempo de ejecución aumenta cuando el tamaño del problema se hace más grande.

Si tenemos en cuenta que las aplicaciones de los ordenadores cuánticos incluyen campos de tanta relevancia como la ciberseguridad, la simulación de procesos físicos y químicos o la inteligencia artificial, el hecho de que la computación cuántica no sea una herramienta que sirva para todo no disminuye su valor sino que simplemente lo matiza. Disponer de ordenadores cuánticos no significará el fin de nuestras limitaciones de cómputo, pero podemos dar por seguro que supondrá un profundo cambio en nuestra forma de calcular y procesar datos y, por tanto, una transformación radical de nuestra sociedad.


La versión original de este artículo fue publicada en el número 119 de la Revista Telos de Fundación Telefónica.


Elías F. Combarro, Profesor titular del Departamento de Informática, Universidad de Oviedo

Este artículo fue publicado originalmente en The Conversation. Lea el original.

The Conversation

Tu opinión enriquece este artículo:

Barcelona, ​​tercera ciudad del mundo en captación de proyectos de inversión extranjera en el ámbito de la inteligencia artificial

Barcelona es la tercera ciudad del mundo en captación de proyectos de inversión extranjera en el ámbito de la inteligencia artificial (IA). Es una de las conclusiones del estudio “Global Location Trends 2025”, que elabora la consultora IBM, mediante su unidad Plant Location International y en colaboración con Moody's, que analiza las decisiones de localización de proyectos empresariales de inversión en todo el mundo durante el año 2024. De acuerdo con el informe, Barcelona se sitúa sólo por detrás de global extranjera en el ámbito de la IA. Es, así, la primera ciudad de la Unión Europea en esta categoría.

Mango, reconocida como una de las Mejores Empresas del Mundo 2025 por la revista Time

Mango, una de las principales firmas de moda internacionales, ha sido reconocida por segundo año consecutivo como una de las mejores empresas del mundo según el ranking World's Best Companies 2025 de la revista Time, que este año llega a su tercera edición. La compañía destaca por ser una de las 17 empresas españolas en el listado y la única representante nacional en la categoría Apparel, Footwear & Sporting Goods.

El precio medio del alquiler sube un 22,1% en un año en Cataluña en agosto

En Cataluña el precio de la vivienda en alquiler sube un 0,9% en su variación mensual y un 22,1% en su variación interanual, situando su precio en 20,59 €/m2 al mes en agosto, según los datos del Índice Inmobiliario Fotocasa. Si calculamos este último incremento interanual (22,1%) en euros (3,73 euros) y lo multiplicamos por los 80 m2 de una vivienda estándar, vemos que se están ofertando pisos 298 euros más caros que hace un año.

Vidext levanta 6 millones en una Serie A liderada por Flashpoint para impulsar la automatización empresarial basada en IA

Vidext, la startup española que está redefiniendo la automatización de sus procesos empresariales usando inteligencia artificial, ha cerrado una ronde de financiación Serie A de 6 millones de euros liderada por Flashpoint, una empresa internacional de inversión tecnológica con unos 500 millones de dólares en activos bajo gestión que ha invertido en unas 90 empresas tecnológicas globales originarias de Europa: Shazam, Chess.com y Guesty. HWK, 4Founders Capital, Sabadell Venture Capital y DraperB1 también participaron en la ronda, formando un sindicato de inversores de primer nivel.

Mobility City impulsa el emprendimiento del sector en la semana europea de la movilidad

En el marco de la Semana Europea de la Movilidad 2025, que se celebra del 16 al 22 de septiembre,  Mobility City, refuerza su papel como motor de cambio en el ámbito de la movilidad sostenible. Para ello, impulsa tres programas clave orientados al emprendimiento: innovación abierta, que fomenta la colaboración entre empresas, instituciones y ciudadanía; aceleración de startups, que apoya a nuevos proyectos con soluciones disruptivas en transporte y movilidad, y transferencia tecnológica, destinada a llevar la investigación y el desarrollo a aplicaciones reales que transformen nuestras ciudades. Con estas iniciativas, Fundación Ibercaja reafirma su compromiso con un futuro donde la movilidad sea sostenible, accesible y eficiente.

La tecnología bajo demanda está en auge, pero el aumento vertiginoso de los costes, la complejidad y las deficiencias en la gobernanza están poniendo en peligro la rentabilidad

A medida que la transformación digital se acelera en todos los sectores, las organizaciones están adoptando tecnologías bajo demanda, como la nube pública, el Software como Servicio (SaaS) y la inteligencia artificial generativa (Gen AI), para ampliar la innovación, mejorar la agilidad y respaldar la competitividad. Pero, aunque las ventajas son evidentes, un nuevo estudio global del Instituto de Investigación de Capgemini publicado hoy, “La paradoja de la tecnología bajo demanda: equilibrar la velocidad y el gasto”, revela que el aumento de los costes, la complejidad y las deficiencias en la gobernanza están poniendo en peligro la rentabilidad. Con la creciente demanda de infraestructura digital, las organizaciones están luchando por contener los costes tecnológicos debido a la falta de visibilidad de los costes, la infrautilización de los recursos y una mentalidad tradicional.

Éste sitio web usa cookies, si permanece aquí acepta su uso. Puede leer más sobre el uso de cookies en nuestra política de cookies.