En su mensaje para la Jornada de la Paz 2024 que se celebra cada 1 de enero, el Papa Francisco alerta de la posibilidad de una «dictadura tecnológica» e identifica los peligros derivados de la Inteligencia Artificial. Avisa de que van desde ataques militares decididos por un algoritmo, hasta determinar la fiabilidad de quienes solicitan un préstamo o un trabajo, la posible reincidencia de condenados o el derecho a recibir asilo político o asistencia social. Por eso, solicita «un tratado internacional vinculante, que regule el desarrollo y el uso de la inteligencia artificial»
Francisco solicita reflexionar sobre «las consecuencias, a medio y a largo plazo, de las nuevas tecnologías digitales», su «impacto en la vida de los individuos y de la sociedad, y en la estabilidad internacional y la paz», pues el progreso tecnológico en este ámbito supone «graves riesgos, con serias implicaciones para la búsqueda de la justicia y de la armonía entre los pueblos».
Lo escribe en un documento titulado ‘Inteligencia artificial y paz’, presentado este jueves 14 de diciembre en el Vaticano. Explica que «no podrán ser considerados un verdadero progreso los avances tecnológicos que no llevan a una mejora de la calidad de vida de toda la humanidad, y que agravan las desigualdades y los conflictos».
Alerta de un escenario apocalíptico que parece un episodio de «black mirror», en el que «los individuos dependen de procesos automáticos que los clasifican, por ejemplo, por medio del uso generalizado de la vigilancia o la adopción de sistemas de crédito social».
Entre los riesgos que señala, denuncia que «en el futuro, la fiabilidad de quien pide un préstamo, la idoneidad de un individuo para un trabajo, la posibilidad de reincidencia de un condenado o el derecho a recibir asilo político o asistencia social podrían ser determinados por sistemas de inteligencia artificial», dejando campo libre a «formas de prejuicio y discriminación».
«No debemos permitir que los algoritmos determinen el modo en el que entendemos los derechos humanos, que dejen a un lado los valores esenciales de la compasión, la misericordia y el perdón o que eliminen la posibilidad de que un individuo cambie y deje atrás el pasado», pide el Papa.
Pide por ejemplo que no se deje a la Inteligencia Artificial la decisión de objetivos militares o la supervisión de su uso. Primero, porque «la posibilidad de conducir operaciones militares por control remoto ha llevado a una percepción menor de la devastación que han causado y de la responsabilidad en su uso». Y segundo, porque «la exclusiva capacidad humana de juicio moral y de decisión ética es más que un complejo conjunto de algoritmos, y dicha capacidad no puede reducirse a la programación de una máquina».
Como conclusión, Francisco solicita «a la comunidad de las naciones que trabaje unida para adoptar un tratado internacional vinculante, que regule el desarrollo y el uso de la inteligencia artificial en sus múltiples formas». Se trata de «prevención de las malas prácticas» y de «alentar las mejores».
«El ser humano, mortal por definición, pensando en sobrepasar todo límite gracias a la técnica, corre el riesgo, en la obsesión de querer controlarlo todo, de perder el control de sí mismo, y en la búsqueda de una libertad absoluta, de caer en la espiral de una dictadura tecnológica», avisa el Papa.
Por eso, propone recuperar «el sentido del límite» para escapar de este laberinto. «En el contexto ideológico de un paradigma tecnocrático, animado por una prometeica presunción de autosuficiencia, las desigualdades podrían crecer de forma desmesurada, y el conocimiento y la riqueza acumularse en las manos de unos pocos, con graves riesgos para las sociedades democráticas y la coexistencia pacífica», asegura.
Ante quienes saludan los avances de la Inteligencia Artificial con ingenuo optimismo, el Papa dice que «no podemos presumir a priori que su desarrollo aporte una contribución benéfica al futuro de la humanidad y a la paz entre los pueblos». Para que sea así deberá «respetar los valores humanos fundamentales como la inclusión, la transparencia, la seguridad, la equidad, la privacidad y la responsabilidad».
No se presupone la ética
En su opinión, su impacto «depende también de los objetivos y de los intereses del que los posee y del que los desarrolla, así como de las situaciones en las que se usan». Por eso, «no basta suponer un compromiso de actuar de forma ética y responsable por parte de quien proyecta algoritmos y tecnologías digitales». Por eso, considera imprescindible «reforzar o instituir organismos encargados de examinar las cuestiones éticas emergentes y de tutelar los derechos de los que utilizan formas de inteligencia artificial o reciben su influencia».