Por qué las máquinas no hablan bien español y por qué deberían hacerlo

(Por Elena González-Blanco, IE University) Cada día se habla con mayor naturalidad de inteligencia artificial (IA). Nos vamos acostumbrando a que esta etiqueta –con un significado para muchos aún rodeado de un halo enigmático– penetre con mayor frecuencia en nuestra rutina.

 
Metamorworks / Shutterstock

Sin ser apenas conscientes, sonreímos para desbloquear el teléfono móvil sin saber que tras ese segundo delante de la cámara, miles de píxeles convertidos en datos alimentan a gran velocidad algoritmos de deep learning. Estos son hoy día capaces de automatizar el reconocimiento facial en unos porcentajes superiores al 98 % de exactitud.

La eclosión ha sido estelar. Podemos considerar como punto esencial la victoria de DeepMind frente al primer jugador mundial de Go en 2016. En apenas 5 años, la afortunada combinación del volumen exponencial de datos generados, la creación de sistemas de procesamiento suficientemente potentes (unidades de procesamiento gráfico o GPU) y la madurez y liberación de los algoritmos de redes neuronales (como Tensorflow), han hecho realidad programable toda la teoría matemática que sienta sus bases en los años 50 del siglo XX, con las primeras teorías de Marvin Minsky o John McCarthy sobre el aprendizaje automático.

¿Robots que hablan? No es tan sencillo

Debajo de esa magia, que hace que la informática trate de comportarse como el cerebro humano, hay una combinación de distintas tecnologías y tipos de datos que no funciona con el mismo éxito ni de la misma forma para resolver todos los problemas.

La paradoja está servida: nos atemoriza un mundo en el que los robots amenazan con suplantar nuestras funciones laborales, pero a día de hoy, asistentes como Siri, Alexa y Google Home son todavía incapaces de mantener una conversación de más de unos minutos, más allá de solicitar una serie de datos, dar órdenes sencillas o establecer rutinas concretas.

Hacer hablar –y escribir– a las máquinas es una de las labores más complejas a las que se ha enfrentado jamás la computación. Ya en 1951 Alan Turing planteó el reto del juego de la imitación, en el que ser humano y máquina podrían confundirse a través del lenguaje, realidad aún muy lejana hoy.

El lenguaje humano es altamente complejo y variado. Es un sistema vivo sobre el cual los algoritmos que tejen estas neuronas digitales que constituyen la inteligencia artificial van aprendiendo con los datos de los que se nutren. Así, estas células informáticas van adquiriendo vocabulario y mejorando sus estructuras lingüísticas gracias a su exposición constante a los datos conversacionales.

Mejor en inglés que en español

La realidad nos demuestra que, a día de hoy, la competencia de esta tecnología es muy superior en inglés que en el resto de las lenguas. Esto se debe a que tanto los principales desarrollos científicos como las grandes empresas que los han explotado comercialmente se han creado en países angloparlantes y entrenado con datos en inglés.

La realidad lingüística es muy distinta de la tecnológica: el español es el segundo idioma del mundo y cuenta con más de 585 millones de hablantes y un crecimiento del 7,5 % anual. Aun así, no existe una inteligencia artificial hoy que sea capaz de procesar con calidad sus numerosas variantes (debidas a diferentes circunstancias geográficas, sociales o contextuales).

La razón de este retraso con respecto al inglés se debe a la fragmentación de las empresas de tecnología lingüística hispanas. En general, son pequeñas y están orientadas a funciones específicas y muy concretas, con un histórico fuertemente vinculado a la traducción y a la variedad lingüística peninsular.

Además, a pesar de la gran cantidad de datos que poseemos en nuestra lengua, estos no se encuentran disponibles para su explotación, pues muchos son privados. Incluso aquellos que están en manos de las instituciones públicas y culturales se encuentran en silos no preparados para su consumo abierto.

Por estos motivos, en muchas ocasiones, las empresas y los grandes clientes eligen soluciones que no se han fabricado en nuestra lengua ni entrenado con nuestros datos, sino mediante la traducción posterior. Esto hace que su nivel de éxito sea mucho menor.

He aquí algunos ejemplos: para poder entrenar a un robot en el ámbito legal español, es necesario contar con abundantes textos legales en nuestra lengua, pero también de un conocimiento del Derecho Romano y del funcionamiento de la jurisprudencia en España.

Para poder discernir las diferentes variedades del español en Latinoamérica, es imprescindible conocer no solamente las variantes de léxico, sino también la fonética, e incluso el funcionamiento situacional (pragmática) de algunas expresiones en determinados contextos. Todos estos matices se pierden en la traducción.

Una oportunidad para el avance

A pesar de todo, nos encontramos hoy en un momento de interés creciente por el desarrollo de la inteligencia artificial aplicada al lenguaje. Ha habido un incremento del 34,5 % de papers científicos sobre procesamiento del lenguaje natural e IA aplicado a lenguaje entre 2019 y 2020, que hace patente la creciente madurez de la tecnología.

Además, el interés por su desarrollo se ha convertido en clave para el desarrollo económico. Actualmente, China lidera con fuerza la revolución tecnológica, seguida por Estados Unidos. Mientras, Europa lucha por no quedar más rezagada buscando nichos para brillar ligados a nuevas oportunidades y a la propia realidad cultural, económica e histórica del viejo continente. La lengua es, sin lugar a dudas, una de ellas, pues los activos que sirven de punto de partida, los datos, están aquí y prácticamente no se han aprovechado aún.

Dentro de esta carrera por el desarrollo de la inteligencia artificial, la importancia del español como lengua nativa de IA, ligada al potencial de mercado y a la riqueza y variedad de sus datos, es una mina de oro que apenas se ha comenzado a explotar.

No es necesario reinventar la pólvora, tan solo proporcionar datos abiertos y disponibles para poder entrenar los algoritmos existentes y alinear el tejido empresarial hacia una misma dirección.

El objetivo es crear una inteligencia artificial tan poderosa como el número de hablantes de español, que allanaría el camino no solo para crear nuevas empresas y mejores algoritmos, sino también para la digitalización y preservación digital de un acervo cultural, lingüístico e histórico que merece un espacio privilegiado dentro del futuro de la transformación digital internacional. El momento es ahora, y los responsables, nosotros.

Elena González-Blanco, Directora de investigación en el Center for the Governance of Change, IE University

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Tu opinión enriquece este artículo:

El Puerto de Barcelona acoge el primer encuentro de IA organizado por Anthropic y World Trade Center

El Puerto de Barcelona acogerá el próximo miércoles, 4 de marzo, el primer encuentro internacional de Claude Community, conjunto de profesionales que, de la mano de Anthropic, están expandiendo Claude, un modelo de inteligencia artificial (IA) desarrollado pensando en usos éticos y beneficiosos para la sociedad. Fundada en 2021 por exmiembros de OpenAI, Anthropic es la creadora de la familia de modelos de IA Claude, reconocida internacionalmente por su potencia, fiabilidad y énfasis en la seguridad y la interpretabilidad.

Los campings españoles crecen un 3% en 2025 (triplicando la media europea)

Los campings españoles registraron en 2025 un crecimiento del 3 %, triplicando la media europea del 1 %, según la tercera edición del informe The Open Air Property Telescope, elaborado por EY‑Parthenon. Actualmente, hay 1.268 instalaciones operativas en España, con niveles de ocupación que alcanzan máximos históricos, aunque las tarifas medias solo aumentaron un 2 % en temporada alta y un 5 % en temporada baja.

El 65% de los españoles duda de si cobra menos que sus compañeros en roles similares, aumentando la desconfianza generalizada

Junio de 2026 es la fecha límite para que los Estados miembros de la UE traspongan a sus legislaciones nacionales la Directiva de Transparencia Salarial de la UE, siendo obligatorio reportar informes de transparencia para las empresas de más de 150 empleados a partir de 2027. La aplicación de esta normativa, la mayor ley de transparencia salarial de la historia de la UE transformará el mercado laboral español con el objetivo de poner fin a la opacidad salarial, una de las mayores frustraciones de los trabajadores españoles. 

El 57,7% de los españoles pagaría más por pescado que garantice mejores condiciones laborales de los pescadores

Casi 3 de cada 4 españoles (74,5%) valora su conocimiento de pesca responsable entre medio y muy bajo, según el estudio “Qué sabemos de lo que comemos del mar”, presentado hoy por OPAGAC (Organización de Productores Asociados de Grandes Atuneros Congeladores). El acto sirvió para el lanzamiento de Hands for Oceans, un movimiento internacional creado por OPAGAC para impulsar la pesca responsable (tanto social, medioambiental y como económica) y garantizar el respeto por los derechos humanos y sociales en alta mar. 

Inetum instala en Valencia la primera oficina móvil de fronteras del Entry-Exit System en España

Inetum, compañía líder en Europa en servicios digitales, ha puesto en marcha la primera oficina móvil de fronteras del proyecto Entry-Exit System (EES) en España, que se ha instalado en el Puerto de Valencia para uso de la Policía Nacional. La instalación consiste en un contenedor equipado que alberga los sistemas y dispositivos necesarios para el nuevo modelo de control fronterizo, y se enmarca en el proyecto EES desplegado en los puertos de València y Sagunto.

Éste sitio web usa cookies, si permanece aquí acepta su uso. Puede leer más sobre el uso de cookies en nuestra política de cookies.