En “La tecnología en las fronteras”, la tesis que escribió en 2016, se propone dar respuesta a cuestiones como “¿Dónde estamos? ¿Quiénes somos? ¿Hacia dónde vamos?”. La tarea es enorme y como ella misma reconoce: “Los avances tecnológicos se producen de un modo exponencial, mucho más rápido que la reflexión sobre los mismos”.
En este momento de despuntar de la sociedad híbrida, física y virtual, ¿te atreves a definir quiénes somos?
Somos cíborgs, personas híbridas fundidas con la tecnología. Aunque en muchos casos no la tengamos integrada permanentemente en nuestros cuerpos, ya se ha transformado en una extensión. El teléfono móvil, por ejemplo, nos acompaña en cada paso que damos: nos levantamos con el despertador, ponemos música mientras nos duchamos, vemos la mejor forma de llegar al trabajo, entramos en el bucle de notificaciones y recorremos el correo, las redes sociales y quedamos atrapados en los algoritmos del deseo. Cuando logramos escapar un rato, trabajamos, nos comunicamos con otros y con el mundo a través de ese dispositivo; es una prótesis que, en lugar de paliar una discapacidad, la genera en su ausencia.
Desde otra perspectiva, se puede subrayar que la tecnología ha contribuido al mejoramiento humano: nos hace la vida más fácil, el trabajo más sencillo, nos pone en contacto…
Nuestra mente ya no está atrapada, si es que alguna vez lo estuvo, en los límites del cráneo. Tenemos una memoria extensa compuesta por toda la información que existe a un clic de distancia; hemos desarrollado la telepatía en su versión realista, podemos comunicarnos con inmediatez con cualquier persona en casi cualquier lugar del mundo. Hemos desarrollado tecnologías que han transformado lo que somos, pero es importante que nos preguntemos ¿a los intereses de quién responden?
En este mundo en el que lo digital y lo analógico se imbrican irremediablemente, también somos perfiles de datos. Y lo que somos, o lo que la información que compartimos diariamente dice que somos, puede determinar lo que podemos llegar a ser. Desde las sugerencias en Netflix o las búsquedas en Google, a las asignaciones de tratamientos médicos o los algoritmos de predicción del crimen, por citar algunas cosas que se deciden ya algorítmicamente, se generan profecías autocumplidas que modelan nuestros gustos, condicionan nuestra salud o nuestra integración en la sociedad. Y lo que los algoritmos deciden que somos, acaba convirtiéndose en lo que seremos.
Somos cíborgs y perfiles de datos. ¿Qué queda de nosotros como personas físicas, corpóreas?
Más allá de la cuestión nada baladí de si lo que somos, el conocimiento o la información pueden reducirse a cuestiones cuantitativas, uno de los problemas más claros es que esas decisiones sobre lo que somos y lo que podemos llegar a ser están sesgadas. Machismo, racismo, clasismo… hacen que muchas personas sean detenidas por el color de su piel o el barrio en el que viven, no sean asignadas a tratamientos médicos que necesitan, no pasen las selecciones automatizadas de personal para llegar a tener una entrevista de trabajo o no se les conceda un préstamo o una hipoteca.
Pese a la virtualización de cada vez más aspectos de la vida, también seguimos siendo cuerpos; cuerpos que aparecen fragmentados en las videollamadas; cuerpos que duelen por malas posturas; cuerpos que mutan por estar siempre viendo el móvil –las nuevas generaciones están desarrollando una calcificación en el cráneo por este motivo–; cuerpos atrapados, sedentarios, que apenas se mueven o que parece que no importan. Pero somos cuerpos que importan y tenemos que volver a ser conscientes de que, aunque fluyamos en el mundo digital, el cuerpo sigue ahí.
¿Hemos llegado ya a ese momento en el que no podemos desarrollarnos sin el uso de las tecnologías de la información y de las comunicaciones?
Por desgracia, en los últimos años hemos estado generando un mundo en el que los humanos nos quedamos obsoletos. Se equipara conocimiento con big data, un término que designa precisamente cantidades de datos que ningún ser humano es capaz de abarcar, solo los algoritmos pueden, por lo que reducimos conocimiento a datos y delegamos nuestra capacidad de decisión a los algoritmos.
Si sigue esta tendencia, seremos lo que los algoritmos quieran –o, más bien, lo que las grandes corporaciones que tienen el control sobre nuestros datos y los algoritmos que toman las decisiones, quieran, guiados únicamente por un interés comercial–. Como todavía estamos a tiempo de decidir lo que queremos ser, también podemos tratar de revertir esta tendencia y convertirnos en lo que queramos.
No soy, ni mucho menos, ludita. Creo que podemos seguir construyéndonos híbridos, mutables. Contra las tecnologías globales, homogéneas y homogeneizadoras, podemos crear tecnologías situadas, que partan de nuestros propios intereses y necesidades y no de un interés comercial. Podemos construirnos en colectivo, ayudando y celebrando la diversidad, conformando redes de apoyo mutuo y ternura radical. Como decía Borges: “El futuro no es lo que nos va a pasar, sino lo que vamos a hacer”. Lo maravilloso de lo humano es que es completamente moldeable, podemos decidir quiénes seremos.
También los gobiernos, las administraciones aplican modelos de gobernanza algorítmica y utilizan los datos personales para orientar a la opinión pública. Entiendo que debemos aplicar el mismo nivel de exigencia a las corporaciones privadas…
Evidentemente, esta transparencia debe exigirse tanto a empresas como a gobiernos, cualquier política pública, gasto de presupuesto público… debería ser también transparente y auditable. Desde hace ya algunos años se vienen defendiendo modelos de gobierno abierto, que fomentan los datos abiertos y prácticas más descentralizadas de toma de decisiones por parte de la ciudadanía. Creo que es un buen modelo para seguir. Como forma de resistencia a la gobernanza algorítmica, propongo la gobernanza lúdica.
El videojuego es un medio algorítmico de nacimiento. Si bien no podemos abarcar a comprender el big data, el algoritmo puede, pero si en lugar de permitir que tome decisiones por nosotros, lo usamos para que nos haga accesible el big data permitiéndonos interactuar con la información, podemos comprender mejor procesos y sistemas complejos y tomar nuestras propias decisiones informadas y consensuadas; podemos ponerlas en práctica en entornos simulados, analizar qué es lo que falla, pulirlas y llevarlas a la práctica en el entorno real con muchas mayores garantías de las que tienen las actuales políticas públicas.
Seguro que ya ha trabajado en algún proyecto de ese tipo.
Aunque esta no es una práctica extendida, sí es una práctica emergente. En la actualidad, podemos encontrar algunos ejemplos de lugares en la plataforma Games for Cities, que recogen proyectos en Boston, Bangalore, Ciudad del Cabo, Estambul, Nairobi, Moscú, Shenzhen o Sydney, abordando cuestiones tales como los flujos migratorios, las problemáticas derivadas del cambio climático, la provisión de espacios públicos de calidad o la adaptación a una economía circular, entre otras.
¿Cómo es un entorno de transparencia radical? ¿Debemos aspirar a ello?
Transparencia y auditabilidad, sí. Pero al tiempo que privacidad y cifrado de la información, especialmente para proteger a la ciudadanía de vulneraciones de sus derechos. Las cadenas de bloques o blockchain, que combinan algoritmos criptográficos, bases de datos públicas distribuidas, redes de pares o p2p y mecanismos de consenso descentralizados, pueden ser una buena solución. Aunque el único uso que se conoce en la población general son las cada vez más cotizadas criptomonedas, sus usos van más allá, desde la educación al medio ambiente.
El debate sobre la ética de la inteligencia artificial (IA) ocupa un gran espacio en los medios y en la opinión pública. ¿Por qué nos ocupa más que la ética política o la ética en cualquier otro campo?
La IA está hoy en día por todos lados y todo el nuevo paradigma de construcción del conocimiento pasa por ella. Aunque si ha saltado al debate público no es tanto por esto –que en ningún momento se cuestiona si debiera o no ser así–, sino por la falta de privacidad. Por un lado, de los modelos de extractivismo de datos que la sostienen y, por otro, por el miedo reflejado en tantas películas de ciencia ficción, de que la IA se vuelva demasiado inteligente y decida acabar con nosotros, esclavizarnos…
Uno de mis autores favoritos de ciencia ficción, Stanislaw Lem, afirma al inicio de Ciberíada que en una sociedad en la que la tecnología está al servicio de unos intereses de clase y bajo el control de una élite altamente especializada, es comprensible que los no iniciados –ni beneficiarios– contemplen el progreso tecnológico con cierto recelo, cuando no con positivo temor. Un temor que, cuando faltan la información y la capacidad crítica necesarias para llegar al fondo de la cuestión, se convierte fácilmente en temor irracional a la cosa en sí –la tecnología, en este caso– en vez de centrarse en su manipulación clasista, auténtica razón de que la ciencia y la tecnología avanzada puedan constituir una amenaza.
¿Estamos en el buen camino para construir un futuro mejor?
Por ahora no, pero estamos a tiempo de cambiar eso.
¿Por dónde empezamos?
Si no somos capaces de imaginar otros modelos, seremos incapaces de construirlos. Más allá de una emergencia sanitaria, una emergencia climática, una emergencia económica o social. Que evidentemente son problemáticas que hay que atender con carácter de urgencia, tenemos la urgencia de pararnos un momento e iniciar procesos lentos de pensamiento, que nos lleve a imaginar nuevos modelos económicos, políticos, sociales. Echando mano de la filosofía, de la ficción especulativa y de todo cuanto nos ayude a imaginar e implementar esas nuevas formas que puedan darnos una vida que merezca ser vivida, una vida construida en común.
Le parece que terminemos con una descripción de ese futuro inmediato como en una reseña de videojuego.
Aventuras trepidantes, rápidos giros de guion. ¿Sobreviviremos a las olas de calor extremas? ¿Podremos escapar a los destinos que nos imponen los algoritmos en base a nuestros perfiles de datos? ¿Podremos recuperar y mantener la biodiversidad? ¿Y generar nuestras propias tecnologías? Este es un juego colaborativo, si otros pierden no podemos ganar. Cohabitemos el mundo, decidamos en común y mejoremos las condiciones de vida.
La versión original de esta entrevista aparece en el número 117 de la Revista Telos, de Fundación Telefónica.
Juan M. Zafra, Profesor asociado en el Departamento de Periodismo y Comunicación Audiovisual y director de la Revista Telos, Universidad Carlos III
Este artículo fue publicado originalmente en The Conversation. Lea el original.
Tu opinión enriquece este artículo: