Mark Minevich, asesor de la ONU y copresidente de AI for the Planet Alliance, ha sido uno de los que ha levantado gran expectación en su sesión. En ella, ha afirmado que la aplicación de la IA Generativa “debe de centrarse en el ser humano, la ética, en los modelos sostenibles y en el futuro de la salud”. En esta línea, ha señalado que la herramienta “puede servir en las predicciones y los sistemas de alerta temprana. No hubo alerta temprana para el covid. Aquí es donde los datos y la información granular ayudan”.
Asimismo, tras la irrupción de Chat GPT en 2023, el experto apunta que “2024 será el año donde nos centraremos en la personalización, la mejora de los mercados predictivos y la productividad en las cadenas de suministros”, mientras que para 2025, “escalaremos los casos de usos actuales”. Minevich ha matizado que, aunque nos encontramos en un estado de exageración de la IA, también estamos experimentando un crecimiento significativo. “Si no eres una empresa impulsada por la IA en 2025, no importarás”, ha sentenciado. Según el asesor, los últimos informes destacan que la inversión en IA alcanzará los 151.100 millones de dólares, lo que también tendrá retos técnicos y legales, como los derechos de autor.
Otro reto que ha detallado es el de la integración de la tecnología en las empresas, y la aplicación de la IA como catalizador de crecimiento para la que se hace necesaria la formación de las personas. Por último, ha abogado por eliminar los prejuicios de la solución y garantizar la privacidad y la seguridad de los datos. “La innovación debe impulsar la sociedad, no las normativas. Hay que equilibrar, no sobrerregular y necesitamos una mejor gestión y gobernanza”. Además, ha puesto de relieve la importancia de estimular el talento de calidad. “Necesitamos científicos de datos e ingenieros”, ha manifestado.
Precisamente, sobre regulación ha ahondado Dan Nechita, jefe de gabinete de Dragos Tudorache en el Parlamento Europeo, el cual es quien lidera la Comisión Especial sobre IA creada por la Eurocámara. Nechita ha compartido la visión general de la normativa señalando que “se trata de especificar cómo se utiliza la IA en Europa de formas que no aceptamos” aunque “la prohibición es una herramienta de último recurso”.
El experto ha abordado los distintos riesgos que contempla la ley, desde el alto, que regula el impacto de la IA en los derechos fundamentales, a los riesgos medios, donde puede influir en las personas con experiencias como los Deep fakes o chatbots. “Las IA prohibidas pueden ser objeto de negociación para su uso por parte de los gobiernos y el Estado. Hay argumentos para ciertos casos de uso. Pero queríamos asegurarnos de que hubiera límites. Por ejemplo, el reconocimiento facial en lugares públicos necesita aprobación para situaciones concretar”, ha indicado. Asimismo, ha abogado por la cooperación internacional para la puesta en marcha de modelos de aplicación flexibles, por lo que están en contacto con EE.UU. y el Reino Unido.
Tras la votación final hace unas semanas de la ley, ha enumerado los próximos pasos de la normativa, ya que la plena aplicación “tardará unos años”. Pronto se publicará en el Diario Europeo y en 12 meses tendrá lugar la creación de la Oficina de AI. A continuación, habrá un periodo de tiempo para los productos que ya incorporan la herramienta digital, con el fin de no sobrecargar el mercado. “La Ley de IA está preparada para el futuro, ya que muchas partes pueden actualizarse sin tener que pasar de nuevo por todo el proceso”.
Quien también ha postado por la regulación como una buena noticia para proteger los derechos civiles es Millán Bezosa, que fue director de alianzas estratégicas en España y Portugal de Meta. “Ahora tenemos la Directiva sobre IA, directiva paraguas en la UE, a partir de la que los países individuales deben adaptarse. Se necesita un ‘botón rojo’ en caso de que las cosas no funcionen como se espera. No se puede simplemente robar contenidos a la gente”.
Estrategias responsables e integración de las tecnologías
Durante la primera jornada, igualmente se ha debatido sobre cómo integrar la IA en las empresas para impulsar sus operaciones de manera efectiva. Idoia Salazar, presidenta y fundadora de OdiseIA, ha apostado por tener una estrategia de IA centrada en el ser humano, responsable, que aborde la privacidad y seguridad de los datos. “Hay que pensar en cómo y por qué se utilizan los sistemas de IA. Necesitamos miembros del equipo que conozcan la ética, la legislación, los perfiles humanísticos, con miras a poder enfocar la inteligencia artificial de la forma correcta”.
Por su parte, Daniel Newman, director general de The Futurum Group, también ha apuntado al uso responsable y a la oportunidad que ha traído la IA como “gran reseteo”. “Las empresas buscan ahora nuevos tipos de proveedores. Lo está cambiando todo”. En este contexto, Iñigo Viti, Business Development Director, Data & AI en IBM ha propuesto usar la IA a fin de estar a la vanguardia de la digitalización. “Hay que poder desplegar modelos de aprendizaje automático, curando datos, eliminando sesgos, y vigilando que no se desvíen. Falta ese marco y es en lo que tenemos que centrarnos”, ha declarado.
En su turno de intervención, Osmar Polo, CEO de T-Systems Iberia, ha resaltado que nos encontramos en el momento de democratización y aceleración de la IA, pero a nivel empresarial y en la esfera de la administración pública hay distintas velocidades. “A la hora dar respuesta a los problemas corporativos, necesitas una plataforma y directrices para que tus equipos prueben y fallen con la IA. Ten un proyecto ‘faro’ para que la gente pueda probar y aprender a usar la tecnología”.
Tu opinión enriquece este artículo: