Tradicionalmente, los derechos han sido fundamentalmente protectores. En algunos casos, garantizar estos derechos ha supuesto la necesidad de crear instituciones y garantías negativas. La transgresión de estos derechos suponía una pena por parte de quien los agredía. Los nuevos derechos implican repensar ciertos aspectos fundamentales de la vida y la realidad.
Las relaciones entre derechos y una era compleja social y tecnológicamente implican dos importantes aspectos:
-
El primero es si la compleja nueva realidad supone la necesidad de establecer derechos adicionales. Hasta ahora, la digitalización ha supuesto nuevas formas de hacer tareas humanas ya existentes. La posibilidad de nuevas formas de interacción y comportamiento exige reflexionar sobre nuevos derechos.
-
El segundo es si la computación puede ayudar a garantizar los derechos de las personas para evitar transgresiones de derechos y otras extensiones o derechos que fuera necesario aplicar.
Una sociedad cada vez más digital
La conectividad va a cambiar notablemente en los próximos años. La computación va a ser, cada vez más, responsable de decisiones importantes. Van a cambiar muchos procesos de decisión y formas de relación entre personas.
Al reflexionar sobre los derechos en una sociedad, es necesario predecir su alcance. El desarrollo de derechos en una era con alto nivel de incertidumbre necesita de un proceso no sesgado, experimental y reflexivo a futuro para poder ampliar su alcance.
Los aspectos más importantes a tener en cuenta en este análisis son:
-
Barreras para un uso más social y humano de la tecnología, ya que ciertas limitaciones pueden a priori dificultar su aplicación. Estas limitaciones pueden ser en el acceso a datos, a la mejora de algoritmos o a la implantación de un algoritmo en un proceso de decisión complejo que pueda tener un impacto altamente positivo.
-
Vacíos en términos de recomendación y exploración que pueden usarse para usos menos éticos y responsables de la inteligencia artificial. Están relacionados fundamentalmente con qué instituciones deben usar algoritmos para ciertos casos de uso y bajo qué condiciones deben hacerlo. Los algoritmos tienen un gran impacto social si son aplicados en el ámbito público, pero también desde el sector privado.
-
Un análisis de sugerencia de acciones y normativo que parte de un análisis descriptivo y exploratorio limitado en cuanto al verdadero potencial positivo de la tecnología digital puede tener consecuencias realmente nefastas para la sociedad. Puede ser una barrera para realizar una transformación digital más humana y que sirva de catalizador de los Objetivos de Desarrollo Sostenible y el futuro de la humanidad. Puede suponer que toda la inversión y economía generada en torno a la digitalización se desaproveche y tenga un impacto negativo en el desarrollo global.
Derechos complejos para una tecnología compleja
Sin caer en un solucionismo tecnológico o un exacerbado optimismo digital, es necesario recalcar que estamos empezando ahora a diseñar las verdaderas soluciones digitales del futuro.
La regulación necesaria es compleja, ya que la tecnología tiene que venir asociada a una reflexión ética. Una normativa sobre la digitalización, si no se hace de forma cuidadosa y rigurosa, puede caer afectando a la actividad científica y de generación de conocimiento en la sociedad.
Es necesario que los marcos de derechos digitales destaquen de qué forma estos pueden ser vulnerados por la actividad científica o por una actividad industrial, un problema que atañe a todo tipo de tecnologías.
El camino hacia la digitalización
La digitalización siempre ha sido una oportunidad para mejorar los sistemas humanos que no funcionan correctamente. Existe una falsa idea de que la tecnología estropea los sistemas humanos actuales en esencia.
Gran parte de los riesgos pueden deberse a que la tecnología amplifica problemas existentes. Por tanto, es necesario vigilar y mitigar, pero sobre todo es necesario diseñar el camino correcto a la digitalización.
La digitalización puede mejorar las capacidades humanas. Permite mejorar su inteligencia de diversas maneras: ofreciendo formas de entender relaciones, juntando y sintetizando información, identificando problemas y sesgos en toma de decisión o ayudando a las personas a potenciar sus capacidades cognitivas.
Entender qué está mal en la digitalización, qué se puede solucionar y qué problemas son realmente arriesgados y difíciles supone un reto serio que no se ha afrontado apropiadamente.
El derecho minimiza los riesgos de la tecnología
El valor de los derechos digitales puede estar, por tanto, en generar un marco general que motive a implementar una digitalización positiva. Pero necesita ir acompañado de más instrumentos, como pueden ser mecanismos de evaluación. La inexistencia de estos instrumentos es la principal causa de los riesgos de la digitalización. La tecnología se usará negativamente si no hay mecanismos que aseguren que se emplea positivamente.
El mayor trabajo, además de la experimentación, es generar las garantías necesarias para que estos derechos sean procesados universalmente. Deberán implementarse con agilidad ciertos mecanismos protectores en respuesta a los problemas de la digitalización, tanto efectivos como potenciales. Estos mecanismos deberán ser diseñados teniendo en cuenta criterios científicos concretos basados en la experiencia.
Finalmente, la digitalización es sistémica. Dar sentido a los derechos que se definen en torno al individuo con las diferentes estructuras y escalas de los sistemas es uno de los trabajos más importantes a realizar. Sin esta visión sistémica, el contenido de una carta de derechos digitales es necesariamente limitada.
Este artículo ha sido escrito en colaboración con Dionisio Escuredo Hogan, de H.44 Abogados, profesor asociado de la Universidad Camilo José Cela.
David Pastor Escuredo, Experto en Inteligencia artificial y datos para el desarrollo, acción humanitaria y gobernanza público-privada. Experto en innovación digital biomédica, Universidad Politécnica de Madrid (UPM); Annalyn Bachmann, Research Affiliate for MIT Center for Collective Intelligence (CCI), Massachusetts Institute of Technology y Ricardo Vinuesa, Associate professor, KTH Royal Institute of Technology
Este artículo fue publicado originalmente en The Conversation. Lea el original.