El pasado miércoles, ía 24 de enero, tuvo lugar un nuevo café-tertulia en el Centro Berit, esta vez a cargo de D. Francisco Génova, Director del Centro Regional de Estudios Teológicos de Aragón, dedicado al tema «Cristianos en un mundo de inteligencia artificial».

A continuación se incluye un resumen no literal de su intervención.

Se trata de un tema muy amplio por lo que vamos a limitarnos a dar unas pinceladas y y destacar algunos aspectos de esta cuestión. El objetivo de esta conferencia es salir con una idea, no solo de lo que es la Inteligencia Artificial (IA, en adelante) sino lo que hay detrás también.

  1. ¿Qué es la Inteligencia artificial?

Es una pregunta de no fácil respuesta, porque a veces manejamos las palabras en un sentido coloquial obviando el verdadero significado que hay detrás del término.

Para definir IA es necesario definir, en primer lugar, qué entendemos por “inteligencia”. Para situar la cuestión en su contexto, el empuje de concepto de IA surge a mediados del siglo XX. Los principales promotores son, sobre todo, matemáticos, centrados en el desarrollo de la informática. Por aquel entonces el ajedrez era una actividad muy común en este grupo y se dirigieron a buscar un programa de ajedrez autónomo, capaz de saber jugar -y ganar-. A mediados del siglo XX empieza a ver un estudio mucho más profundo de lo que es la inteligencia que ya no se reduce al pensamiento lógico racional, al pensamiento meramente matemático, como inicialmente se pensaba.

En las siguientes definiciones puede advertirse esta evolución conceptual:

«La Inteligencia Artificial es el campo de la informática que estudia cómo computar tareas tales como la percepción, el razonamiento, y el aprendizaje; y permitir así el desarrollo de sistemas que lleven a cabo estas capacidades» (Bar – Cohen  – Hanson)​

«La Inteligencia Artificial es la ciencia de construir máquinas que realicen tareas que requerirían inteligencia si fueran llevadas a cabo por seres humanos» (Marvin Minsky)​

«La Inteligencia Artificial busca desarrollar ordenadores que hagan la clase de cosas que hacen las mentes» (Margaret Boden)​

En la última definición, de Margaret Boden, se identifica una asimilación con la mente humana. Es IA si piensa como los seres humanos, lo que permite introducir la cuestión de la consciencia.Otros científicos proponen la denominación alternativa de la “inteligencia de las máquinas”. Como cuando un avión vuela no podemos identificarlo como “un pájaro artificial”, tampoco podemos hacer equivalencias entre la “inteligencia humana” y la “inteligencia de las máquinas”.

  1. Historia de la IA

Hay una clasificación clásica en el ámbito de la IA. La IA débil o “limitada” (en inglés: ANI (Artificial Narrow Intelligence”) y la IA fuerte o “general” (AGI: Artificial General Intelligence), con diferentes variantes.

La que existe actualmente es la IA débil, incluso con programas de IA generativa. Pero los grandes centros e investigación tecnológica apuestas por avanzar en la IA general, cuya orientación es la propiamente humana, incluso superarla (“Super IA” o ASI (“Artificial Super Intelligence”). El término “superinteligencia” lo acuñó Nick Bostrom, filósofo sueco de la Universidad de Oxford.

Pues bien, la cuestión de lo que entendemos por “inteligencia” es aborada por Jordi Pigem, filósofo calatán, muy crítico con la expresión de IA ya que, en realidad, es “imitación y apariencia”, ya que ostenta una “capacidad de aparentar” que es inteligencia cuando en realidad es un “cálculo algorítmico”. Las denominaciones que se le dan a los conceptos no son nunca neutras, incluso consiguen cambair la percepción de la realidad.

La IA es un largo camino histórico: Ismail al-Jazari (1136-1206), Ramón Llull (1232-1316), René Descartes (1596-1650), Julien Offray de la Mettrie (1708-1751),  ​Jacques de Vaucanson (1709-1782)​, Pascal (1623-1662) Leibniz (1646-1716) , Joseph-Marie Jacquard  (1752 -1834)​, Charles Babbage (1791-1871) – Augusta Ada Lovelace (1815-1852)​, Herman Hollerith (1860-1929)​ o Claude Shanon (1916-2001) .

El primero de la lista en este largo comino es Ismail al-Jazari, un “ingeniero” árabe, experto mecánico, que creó un manual para construir una orquesta automatizada de autómatas. Shanon fue el que supuso el paso trascendental entre lo mecánico y lo eléctronico, allá por los años 30 del siglo pasado. Claude Shanon tuvo una idea genial a sus diecinueve años, con motivo de la elaboración de su tesis de máster en el Instituto Tecnológico de Massachusetts. Paso de lo mecánico a lo eléctrico y a ello se dedicó toda su vida. Acabó con los ordenadores mecánicos, qe comportaban limitaciones claras y creó el ordenador con relés eléctricos (1936). La conocida Conferencia de Darmouth (1956) fue donde se acuñó el término y el mundo científico apostó por impulsar la IA. Entonces era IA simbólica (en inglés, GOFAI), esto es, aquella fundamentada en el hecho de que en el propio programa se encuentra toda la información. Lo que provocó el “invierno de la IA”, como consecuencia de las “promesas incumplidas”.

A este “invierno” le sucedería el fenómeno del “machine learning” y del “Deep learning”, basado en el aprendizaje de las máquinas. La información ya no está toda en el programa sino que el propio programa, con los datos y resultados que va obteniendo es capaz de aprender. Es un momento de éxito, de la mano de las grandes tecnológicas, como Google.

Esta evolución también viene de la mano del Big Data, en el que se recolectan millones de datos derivados del funcionamiento tecnológico (por ejemplo, del reconocimiento facial) lo que comporta no pocos debates éticos (por ejemplo, la cuestión del sesgo discriminatorio, como ha ocurrido en aplicaciones automáticas de evaluación para la concesión de la libertad condicional).

Algunos han hecho referencia al fenómeno de la “fascinación del reloj digital”, que invita a pensar que la hora exacta es la que ofrece el reloj digital, aunque en realidad no sea así.

Y eso es lo que ocurre con estos programas que dan una respuesta que humanamente evita problemas y esfuerzo y que la damos por buena aunque no tiene por qué ser buena. Por eso, en este ámbito hay mucho de mito y de realidad, aunque a veces el mito impide caer en la cuenta del peligro y los riesgos.

La pregunta que realizó en 1950 Alan Turin, matemático, sobre si podían pnesar las máquinas, esta sujeta a la definición que manejamos de “pensar”. Se hablar de una “explosión de inteligencia”, Irving John Good (1957) advertía que “se produciría con la primera máquina ultrainteligente y sería lo último que el ser humano necesitaría inventar… si era capaz de controlarlo”. John von Neumann (1959), Vernor Vinge (1993) y Ray Kirkweil (2005) han hablado de la “Singularidad tecnológica”, en la que las máquina puedan superar al ser humanos incluso estos puedan unirse a las maquinas para poder sobrevivir, incluso, a la propia muerte. Frente a estas posturas, se han planteado también actitudes de rechazo, tales como Joseph Weizenbaum (1923-2008): Programa ELIZA (1964), Hubert Dreyfus (1929): La Alquimia y la Inteligencia Artificial (1965), John Searle (1932): La habitación china o Roger Penrose (1931): Argumentos de mecánica cuántica, biología y teorema de Gödel.

Son riesgos que acechan en este ámbito, de los que advierte también el papa Francisco, en su crítica al “paradigma tecnocrático”. En su encíclica “La duato si” (2015) y recientemente en la exhortación apostólica “Laudate Deum” (2023) señala que “el paradigma tecnocrático dominante reduce la realidad entera, y al ser humano con ella, a objeto de consumo”. Advierte, en este sentido, que “los objetos de la técnica no son neutros, porque crean un entramado que termina condicionando los estilos de vida y orientan las posibilidades sociales en la línea de los intereses de determinados grupos de poder. Ciertas elecciones, que parecen puramente instrumentales, en realidad son elecciones acerca de la vida social que se quiere desarrollar” (LS 107). Muy recientemente, el Papa Francisco volvió al tema en su discurso con motivo de la Jornada de la Paz (1 de enero de 2024), titulado “Inteligencia artificial y paz”, en el que señala: “la inteligencia artificial, por tanto, debe ser entendida como una galaxia de realidades distintas y no podemos presumir a priori que su desarrollo aporte una contribución benéfica al futuro de la humanidad y a la paz entre los pueblos. Tal resultado positivo sólo será posible si somos capaces de actuar de forma responsable y de respetar los valores humanos fundamentales como «la inclusión, la transparencia, la seguridad, la equidad, la privacidad y la responsabilidad».

           La Unión Europea está intentado legislar sobre el tema con las dificultades de todo tipo que este intento presenta. En última instancia, se presenta el debate sobre libertad y seguridad y “el precio que hay que pagar” por ella.

  1. Los desafíos de la IA

Esta evolución de la IA presente múltiples desafíos.

Por un parte, los “Robots-bots sociales” que permiten entablar vínculos afectivos con los seres humanos. Incluso estos vínculos pueden presentar -aparentemente- múltiples ventajas (por ejemplo, son relaciones mucho más simples que las de los seres humanos). Es la “computación afectiva” (AEI).

Por supuesto, otro desafío son las armas letales autónomas. Hay una web (www.stopkillerrrobots.org/es/tomar-medidas”) que propone una campaña para detener el desarrollo de este tipo de armas. No obstante, este tipo de campañas se encuentra con la dificultad de los intereses de los Estados en el ámbito de la competitividad militar. El propio papa Francisco se ha referido a esta cuestión en el citado mensaje de la 57 Jornada Mundial de la Paz de este año (1 de enero de 2024): “La búsqueda de las tecnologías emergentes en el sector de los denominados ‘sistemas de armas autónomos letales’, incluido el uso bélico de la inteligencia artificial, es un gran motivo de preocupación ética. Los sistemas de armas autónomos no podrán ser nunca sujetos moralmente responsables. La exclusiva capacidad humana de juicio moral y de decisión ética es más que un complejo conjunto de algoritmos, y dicha capacidad no puede reducirse a la programación de una máquina que, aun siendo ‘inteligente’, no deja de ser siempre una máquina. Por este motivo, es imperioso garantizar una supervisión humana adecuada, significativa y coherente de los sistemas de armas.” (n. 6).

También hay múltiples campañas para impedir la proliferación de los llamados “robots sexuales”, tales como https://campaignagainstsexrobots.org, con el lema “For the Humanity of Women and Girls”.

Sherry Turkle señaló que “nuestra atracción hacia los robots no depende de que sean inteligentes o conscientes, nuestra atracción procede de lo que ellos evocan en sus usuarios. La cuestión no son las capacidades de las máquinas, sino nuestras propias vulnerabilidades.” En este mismo sentido, Jorge Pigem advierte que “solo hay una única manera de que se cumpla la predicción de que los robots acabarán asemejándose a las personas: que las personas degeneren hasta acabar pareciendo robots”.

Por otra parte, en el ámbito social y laboral, se advertido también múltiples desafíos que han generado diferentes propuestas para su solución: ingreso básico universal, nuevo feudalismo (servidumbre tecnológica), aislamiento humano – Vida virtual, estados totalitarios… En última instancia, el escenario podría materializarse en el que propuso Huxley en 1984 o el que anticipó en “Un mundo feliz”

La Academia Pontifica para la Vida ha dedicado igualmente su atención a estas cuestiones: https://www.academyforlife.va/content/pav/en/projects/artificial-intelligence.html

  1. Tres claves para el cristiano

Frente a estos riesgos, la fe propone tres claves fundamentales: la comprensión del ser humano como imagen de Dios (Gn 1,27), el encargo de dominio sobre la Creación (Gn 1,28) y la realidad del mal (Gn 11,1-9).

En primer, la clave pasa por la comprensión del ser humano como imagen de Dios; el ser humano no es algo reducible ni manipulable. Su dignidad ha de ser respetada y no puede ser, en ningún caso, equivalente a una máquina. De otro modo, la máquina se convertiría e una creación convertida en medida de lo humano.

No hay que olvidar tampoco el encargo al ser humano de dominio sobre la Creación (Gn 1,28). El Papa ha señalado en LS que “Se ha dicho que, desde el relato del Génesis que invita a ‘dominar’ la tierra (cf. Gn 1,28), se favorecería la explotación salvaje de la naturaleza presentando una imagen del ser humano como dominante y destructivo. Esta no es una correcta interpretación de la Biblia como la entiende la Iglesia.” “La forma correcta de interpretar el concepto del ser humano como «señor» del universo consiste en entenderlo como administrador responsable”. (LS 116).

La realidad del mal es otra clave, como ilustra el relato de la torre de Babel (Gn 11,1-9). La tecnología puede utilizarse para el mal, como es conocido.

Hay que recordar lo que se ha denominado efecto “caja negra”, esto es, los resultados no previstos de la tecnología. Un estudio del año 2017 (Facebook Artificial Intelligence Research -FAIR) consistió en Bots de Machine Learning que están dirigidos a aprender a negociar. En el laboratorio, los pusieron a negociar entre sí, para que pudieran aprender practicando. Tuvieron que desconectarlos porque en un determinado momento fueron cambiando el lenguaje y dejaron de emplear un “lenguaje humano”. Podría decirse que descubrieron los científicos que las máquinas habían aprendido a “engañar”, porque así conseguían cumplir con sus objetivos: “nuestros agentes habían aprendido a engañar sin ningún diseño humano explítico, simplemente tratando de alcanzar sus fines” (FAIR, 2017).

¿Cuáles son los tres caminos que se presentan ante el cristiano? Un primer camino es dejarse abrazar por el paradigma tecnocrático que orienta la IA a una deshumanización del ser humano. En segundo lugar, otro camino es ignorar el desafío y seguir viviendo al margen de esta realidad. Un tercer es tomar conciencia del reto y afrontarlo.

El papa Francisco propone al respecto:

“La libertad humana puede hacer su aporte inteligente hacia una evolución positiva, pero también puede agregar nuevos males, nuevas causas de sufrimiento y verdaderos retrocesos. Esto da lugar a la apasionante y dramática historia humana, capaz de convertirse en un despliegue de libertad, crecimiento, salvación y amor, o en un camino de decadencia y de mutua destrucción.” (Laudato si’ 79)

0 comentarios

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *