‘Antiqua et nova’ (antigua y nueva) es el título de la Nota sobre la relación entre la inteligencia artificial y la inteligencia humana, publicada por el Dicasterio para la Doctrina de la Fe y el Dicasterio para la Cultura y la Educación, el pasado 14 de enero.
Más extenso que las ‘Notas’ habituales de los Dicasterios vaticanos, consta de introducción (#s 1-6) y reflexión final (108-117)-, se compone de 117 numerales, y se presenta en cuatro capítulos: ¿Qué es la IA? (7-12), La inteligencia en la tradición filosófica y teológica (13-35), El papel de la ética para guiar el desarrollo y el uso de la IA (36-48) y Cuestiones específicas (49-107).
El solo capítulo de las Cuestiones específicas bien vale una atenta lectura, pues ellas son: la IA y la sociedad; la IA y las relaciones humanas; IA, economía y trabajo; la IA y la sanidad; IA y educación; IA, desinformación, deepfake y abusos; IA, privacidad y control; la IA y la protección de la casa común; la IA y la guerra; y la IA y la relación de la humanidad con Dios. Pero me quiero centrar en el tercero: El papel de la ética para guiar el desarrollo y el uso de la IA.
A diferencia de lo que se acusa con frecuencia a la Iglesia Católica, calificándola de temerosa ante los avances científicos, la Nota vaticana mira con buenos ojos a la IA, en la medida en que forma parte de la colaboración humana con Dios en el perfeccionamiento de la creación visible. Reconoce también los logros de los avances tecnológicos, al remediar innumerables males que han dañado al ser humano.
Pero no deja de advertir sobre los peligros que toda innovación plantea, sobre todo cuando se afecta a la dignidad humana. Este temor es compartido por otras instituciones e instancias sociales, que se plantean la interrogante clásica, al menos desde que el ‘doctor Frankenstein’ ‘creó’ vida. Hoy la pregunta es si la IA podría actuar, en un futuro ya no tan lejano, de manera autónoma, inclusive, atacando al ser humano.
Un ejemplo. De acuerdo a investigaciones realizadas en la Universidad de Fudan, en China, se ha llegado a la conclusión de que la IA cruzó un límite peligroso: produjo de forma independiente una réplica de sí misma. Y es que se les pidió a dos modelos lingüísticos construidos por Llama, de Meta, y Qwen, de Alibaba que se clonaran a sí mismos en caso de un apagón eléctrico… y se reprodujeron con éxito.
La IA, como en su momento la imprenta, el teléfono y la televisión, y más recientemente, el internet y la robótica, “puede orientarse hacia fines positivos o negativos” (#40), y citando al papa Francisco, el documento nos recuerda que “el uso de la IA debe venir acompañado de una ética basada en una visión del bien común, una ética de la libertad, responsabilidad y fraternidad, capaz de favorecer el pleno desarrollo de las personas en relación con los demás y con la creación” (#48).