top of page

El dilema de la era tecnológica: ¿Es posible innovar sin romper los códigos éticos?



Recientemente, una experiencia en el Metaworld Congress al que asistimos hace un par de semanas nos planteó una cuestión tan intrigante como relevante: en una situación vital compleja, ¿preferiríamos vivir en un entorno virtual, ignorantes de su naturaleza ficticia, o enfrentar la cruda realidad? Casualmente yo vote que no, mi socia Leyre Pérez que sí y esta diferencia entre nosotras parecía ser la línea general, porque las votaciones iban completamente igualadas.


Ahora bien, esta votación no es más que el reflejo de un debate más amplio que no es meramente hipotético, sino cada vez más palpable, debido a los avances tecnológicos en neurotecnología, la robótica y la inteligencia artificial. Sin embargo, algún sector muy pro-innovación, cree que la innovación no debe limitarse ni regularse.


¿Qué avances tecnológicos se están produciendo?


El uso de tecnologías como cascos neurales y lentes de contacto de realidad mixta está transformando sectores como el militar, donde los soldados podrían tener capacidades mejoradas de visión y audición a través de estos dispositivos avanzados. Empresas como Neuralink de Elon Musk, están llevando la integración entre el cerebro humano y las máquinas al siguiente nivel. [1]


Y esta semana conocíamos la otra vertiente: los robots biohíbridos. Según un artículo publicado en Advanced Intelligent Systems, Investigadores del Instituto Tecnológico de Massachusetts (MIT) han logrado combinar tejido muscular de células de ratón con estructuras robóticas sintéticas, creando robots que imitan movimientos naturales gracias a sus "músculos" biológicos. [2]


¿Todo vale en nombre de la innovación?


La ética en la innovación es un tema de debate permanente. Aunque este dilema parece actual ante los avances de la inteligencia artificial, nos podemos olvidar que la Declaración Universal de los Derechos Humanos de 1948 surgió como respuesta a los “actos de barbarie ultrajantes para la conciencia de la humanidad” cometidos durante la Segunda Guerra Mundial. Su adopción reconocía que los derechos humanos son la base de la libertad, la justicia y la paz. El aprendizaje del pasado debería mostrarnos que no todo puede valer en pro de la innovación.


Por lo que respecta a la inteligencia artificial, algunas organizaciones internacionales están trabajando hace años en la determinación de valores y principios éticos ante el potencial de la inteligencia artificial y la robótica, que en no buenas manos podría traer consecuencias devastadoras.


No nos vamos a referir hoy al Reglamento de la IA de la Unión Europea, sino más bien al campo de la ética. En 2021 la UNESCO aprobó las Recomendaciones en materia de la ética y la inteligencia artificial asentando cuatro pilares básicos en el avance de la inteligencia artificial que son: El respeto a los derechos humanos, la convivencia pacífica, la diversidad y la sostenibilidad. Además de definir algunos principios que deberían considerarse como la transparencia y la explicabilidad de los sistemas de la IA, la eliminación de sesgos y la privacidad.


En ese mismo año, la ONU elaboró un informe sobre los potenciales riesgos de la IA, invitando a los Estados a trabajar en esta materia y, en marzo de 2024 [3], la Asamblea de la ONU ha adoptado una resolución histórica sobre la IA. Asimismo, la Asamblea pidió a todos los Estados miembros y partes interesadas que “se abstengan de utilizar sistemas de inteligencia artificial que no puedan funcionar de conformidad con las normas internacionales de derechos humanos o que planteen riesgos indebidos para el disfrute de los derechos humanos". 


Adicionalmente, el Consejo de Europa está elaborando un tratado sobre la IA y los derechos humanos, buscando equilibrar la innovación con la protección de los valores y derechos fundamentales; aunque todavía no hay fechas sobre el momento en el que tendremos el texto aprobado.


El equilibrio entre la ética y la innovación debería ser una máxima, que se asiente sobre los derechos humanos, en la que debería participar no sólo la sociedad en su conjunto, sino todos los que de alguna forma tienen que ver con el desarrollo de las tecnologías exponenciales y todo los usuarios finales de estos sistemas.



Para aquellos proinnovación absoluta, que promueven la inconveniencia de poner límites regulatorios a la innovación, cabe señalar que el problema no es la tecnología, sino las personas que la utilizan. Y lamentablemente, no todos los seres humanos actuarán en beneficio de la humanidad. La regulación y la ética no están para limitar la tecnología, están para delimitar la actuación de las personas que la crean y para proteger a aquellas que la utilizan.


Bibliografía

 

[1] C, Sueiro (2024, abr. 11) Los inicios de la era del transhumanismo; la neurotecnología y el neuroderecho. Infobae. https://www.infobae.com/opinion/2024/04/11/los-inicios-de-la-era-del-transhumanismo-la-neurotecnologia-y-el-neuroderecho/

[3] Naciones Unidas (2024, marz. 21) La Asamblea General de las Naciones Unidas adopta una resolución histórica sobre la IA. https://news.un.org/es/story/2024/03/1528511

12 visualizaciones0 comentarios
bottom of page