En la globalización tormentosa que estamos viviendo nos ha sorprendido un intenso relámpago y su gran tronada bajo el respetable nombre de Inteligencia Artificial (IA). Parece nueva en el panorama, pero hace décadas que se mantenía recluida en espacios de alta especialización. La furia de este rayo ilumina mucho, pero el ruido de su trueno asusta a mucha gente. La luz de los adelantos tecnológicos es indiscutible y esperanzadora en territorios trascendentes para la vida: la medicina, la asistencia personal, la liberación de muchos trabajos de rutina –algunos, también intelectuales–, la misma informática de donde nace, la comunicación y el transporte, la gestión empresarial y gubernamental, etc. Pero el ruido del trueno –no en sentido despectivo, sino meramente descriptivo– ha tomado dimensiones quizás desproporcionadas en relación con la luminosidad previa.

El penúltimo de los ruidos –porque seguro que durante el proceso de publicación de este texto habrá habido algún otro– es la disputa sobre la «carta de la moratoria» relativa a la irrupción descontrolada del Chat GPT en nuestras vidas. Se debate si esta petición de moratoria hacía falta o no, si podía ser eficaz o no, si era alarmista o no, si era interesada o ingenua, si era asumible o no por los responsables privados y por los poderes públicos, o si como mínimo servía para extender la conciencia social de los riesgos de esta última deriva de la IA. Esto último parece que se ha conseguido. El debate no es ruido en sentido negativo, pero forma parte de la avalancha de posiciones, incluida esta, que hacen ruido por la mera acumulación repentina de gran repercusión pública.

En medio del ruido, que propicia la confusión, hay que hacer el esfuerzo, que aquí se intenta, de precisar hasta donde sea posible la comprensión del fenómeno y los retos de aplicación que nos plantea.

 

IA: comprenderla bien          

Una aclaración previa: parte de la confusión inherente al fenómeno es el uso del término «inteligencia», que reviste a esta tecnología con el prestigio de una de las capacidades humanas más preciadas. Curiosamente, de otras capacidades relevantes, como sentir o amar, no se hacen «hermanos artificiales»: no se habla de «sensibilidad artificial» –en todo caso, de simples «sensores»–, ni de «amor artificial», que nos producirían rechazo. En cambio, la IA despierta una secreta admiración, no exenta de temor –como posible competidora y quizás vencedora de nuestra inteligencia natural (IN). Quienes, en las décadas de los cincuenta y sesenta, experimentaron las primeras grandes evoluciones de la entonces llamada cibernética, entusiasmados por los progresos de gran similitud a algunas de las principales habilidades de la humana inteligencia, la bautizaron con este nombre, debidamente matizado por el calificativo de «artificial». Pero el abuso del sustantivo ya estaba hecho; y es abuso porque la IN tiene una diversidad de rasgos muy alejados de los propios de la máquina y, cuando se las funde, se las confunde y se nos confunde.

Cibernética era un nombre muy digno, derivado del griego kybernetés, que quería decir «timonel», la persona encargada de pilotar un barco; importantísima función, pero con el pequeño detalle de que la función del timonel no sustituye ni iguala a la del capitán; el timonel hace un trabajo de gran mérito y responsabilidad, pero siempre bajo las órdenes del capitán. He aquí donde se hace más claro el abuso terminológico, porque resulta que atribuimos a la IN la capacidad de decidir o establecer finalidades, cualidad que, en la comparativa, no correspondería a un timonel sino a su capitán; en la IA, sin embargo, las dos funciones nos llegan fundidas y confundidas. Pero el éxito de la tecnología IA refuerza el éxito de su denominación, que parece irreversible; y hay que recordar que, como dijo Austin, «las palabras hacen cosas» y mantener esta palabra «hace» unos efectos sobre la mayoría de la población que no haría si simplemente se continuara llamando «cibernética» o, incluso, «macrocibernética» que, además, se podría ahorrar el adjetivo de «artificial» porque lo es de por sí. Habría una rebaja de expectativas y temores muy tranquilizadora.

El error radical, desde el punto de vista filosófico, es atribuir a un simple ‘instrumento’ –por útil y potente que sea– el carácter de finalidad.

Con esta reflexión sobre el nombre de la cosa, ya podemos apuntar un reto importante que le es inherente: el reto de su correcta comprensión, tanto por parte de muchos de sus promotores –tecnólogos y fabricantes– como por parte del público general. No será posible superar algunos de los retos éticos y sociales que veremos si partimos de una posición de principio errónea. El error radical, desde el punto de vista filosófico, es atribuir a un simple instrumento –por útil y potente que sea– el carácter de finalidad o, dicho de otra manera, permitir que un ser éticamente no autónomo –como es y será siempre una máquina producida por nosotros– acceda al que Kant denominaba «el reino de las finalidades», donde según él vivimos exclusivamente los seres de razón. Matizamos, además, para remachar clavos anteriores, que la razón y la inteligencia no son exactamente lo mismo, por fuerte que sea la relación que tienen.

PUBLICIDAD
Neix DFactory Barcelona, la fàbrica del futur. Barcelona Zona Franca

Max Tegmark, un tecnólogo de gran altura intelectual, ya subrayaba la paradoja que resulta del hecho de que seres inteligentes que investigan sobre inteligencia no se ponen de acuerdo sobre qué es inteligencia. La etimología nos ayuda aquí también: porque el intelligere latín del que nace nuestro sustantivo «inteligencia» nos da dos pistas importantísimas: de las dos fuentes de la palabra –intus-legere y inter-legere— deducimos que la función de la inteligencia natural es «leer adentro» o «elegir entre» (legere es «leer» y también «elegir»), es decir, comprender el ser auténtico de cada cosa por debajo de su apariencia –intus-legere— (ya se sabe que las apariencias engañan) y saber ejercer la libertad –inter-legere, elegir entre, es decir, saber elegir–; parece que la IA queda lejos de estas funciones o, aun peor, que sería una intrusa si pretendiese hacerlas por nosotros.

Es indiscutible que la IA aporta funcionalidades nuevas a nuestra IN –como la potencia de cálculo, la conectividad permanente y multipolar y la capacidad de actualización– pero que la nuestra conserva funcionalidades difícilmente sustituibles –o en absoluto, al parecer de muchos creadores de IA–: interpretación de la ambigüedad del lenguaje y de la complejidad vital, creatividad imaginativa y disruptiva, conexiones emocionales y fisiológicas, conciencia de valores y contravalores, conciencia del contexto y de su variabilidad, conciencia del dolor propio y ajeno, definición de objetivos humanamente relevantes, educabilidad eticosocial, sentido de la ironía y del humor, etc.

En esta situación, hay un reto intelectual básico: en un primer momento, aclarar la verdadera naturaleza de la IA, las dudas sobre su (im)posible conciencia, y con ella, la creatividad, emotividad, educabilidad, para después planificar una óptima colaboración entre IA y IN. Del mismo modo que el lenguaje natural no nos importa ni sirve principalmente para la acumulación de significados del diccionario, pese a su relevancia, sino para los usos concretos y variadísimos que somos capaces de hacer con él, la IA nos tiene que importar y valer –todavía más que por la clarificación de su naturaleza— para los usos concretos que decidamos que merece la pena hacer con ella –éticamente, socialmente y pragmáticamente-.

Preocuparse por el uso ético no es ir contra la investigación y progreso de la IA, que hace falta que se mantenga y mejore por principio de interés general.

 

IA: usarla bien

«Usarla bien» tiene dos sentidos: el meramente pragmático, es decir, saberla usar para lograr efectos de interés –cirugía de altísima precisión, por ejemplo–, que aquí, con la importancia que sin duda tiene, damos por sentado, garantizado por el gran potencial de la ingeniería que la construye. Y el segundo sentido, que aquí nos importa y que de momento está menos garantizado, es el ético o la aplicación respetuosa con principios y valores que nos parecen humanamente irrenunciables. Preocuparse de este uso ético no es ir contra la investigación y progreso de la tecnología de IA, que hace falta que se mantenga y mejore por principio de interés general, sino únicamente velar por otro principio de interés general, tan o más importante que el anterior, que es la preservación de la dignidad humana y de los valores, derechos y libertades que derivan de la misma.

Las normas que se vayan acordando sobre la acción de la IA orientadas a esta preservación no se pueden entender como limitaciones empobrecedoras sino como adaptaciones enriquecedoras: del mismo modo que impedir un riesgo de amenaza a la salud física de un medicamento no es «limitar» la farmacología sino adaptarla al interés general de la salud humana y de este modo enriquecer su sentido, impedir una amenaza ética o social a la IA es simplemente adaptarla o vincularla al interés de los valores humanos, de los cuales ella misma nace y a los cuales se debe –valor del conocimiento y libertad de investigación, que forman parte del conjunto de derechos y valores humanos básicos.

Impedir una amenaza ética o social a la IA es simplemente adaptarla o vincularla al interés de los valores humanos.

Algunos de los valores humanos que se consideran generalmente en riesgo debido a según qué usos de la IA son los siguientes:

La verdad, incluso la pequeña y limitada de la vida diaria, que, más allá de la duda filosófica sobre su naturaleza, puede verse gravemente condicionada por la gran capacidad desinformadora, la productividad desvergonzada de «hechos alternativos» y fake news; y en un orden más trascendente, en opinión de dos pensadores tan distanciados entre sí como Harari y Zizek, puede romperse lo que ha llegado a llamarse «el sistema operativo» de la civilización, el lenguaje natural, por la degradación que los chatbots invasivos –el célebre GPT entre ellos– pueden operar sobre él, fuente necesaria de la construcción de ideas, mitos, religiones, relatos, poesía, etc., elementos indispensables de la autocomprensión humana; es decir, no solo está en juego la verdad, sino la fuente única –por modesta y limitada que sea– de la verdad humana posible o razonable, el lenguaje natural;

En opinión de dos pensadores tan distanciados entre sí como Harari y Zizek, puede romperse «el sistema operativo» de la civilización, el lenguaje natural. 

El conocimiento, sobre todo el científico, dado que los chatbots como el GPT admiten sobre sí mismos que en sus respuestas a cualquier tipo de búsquedas que puedan hacer investigadores o estudiantes no pueden garantizar la validez de sus afirmaciones (beben de todo tipo de fuentes, también falsas, y en la combinatoria que los alimenta les surgen resultados azarosos y alocados), hasta el punto de que establecen como objetivo de sus textos no «la verdad» sino «la plausibilidad»: es decir, juegan a simular apariencias de verdad, no con el espíritu de los antiguos escépticos que defendían la verosimilitud como «aproximación» a la verdad, sino la verosimilitud como «simulación» de la verdad; es decir, pura comedia;

La privacidad o intimidad, extensamente amenazada por la captación directa e indirecta, casi nunca consentida, de todo tipo de datos de la vida de cada cual; como argumenta Carissa Véliz, la pérdida de privacidad no es solo una pérdida individual sino una pérdida colectiva, puesto que gracias a la privacidad mantenemos la diferencia entre unos y otros y, con ella, la variedad personal y el pluralismo social –esencial para la democracia-;

Los chatbots como el GPT establecen como objetivo de sus textos no «la verdad» sino «la plausibilidad».

La libertad democrática, puesto que sin información mínimamente buena no es posible la libertad, ni personal ni colectiva; incluso aunque las informaciones no sean falsas, la misma hiperproducción informativa genera desorientación, saturación y bloqueo intelectual, como sostiene Helga Nowotny, para quien sobra producción informativa y falta criterio y sabiduría interpretativa; y en cuanto al juego limpio electoral, es un gran peligro la potencia difusora de falsedades políticas y manipuladora mediante propaganda simulada y sutilmente orientada a sectores de población sensibles a determinados mensajes populistas y/o abstencionistas, según intereses sectarios;

Una IA cada día más potente y rápida en el cálculo aplicada a la selección y la combinatoria de datos prácticamente infinitos es turbadora.

La justicia, tanto en el orden individual, por posibles lesiones de derechos derivadas de sesgos de los algoritmos que regulan el acceso a puestos de trabajo, a créditos, a seguros, etc. –sesgos racistas, machistas y edadistas, principamente–, como en el orden colectivo, especialmente si atendemos a la muy argumentada posición de la filósofa Shoshana Zuboff, que advierte sobre la injusticia sistémica que comporta lo que califica de «capitalismo de la vigilancia» o la acumulación incontrolada y explotación sin reglas de los datos de todo el mundo, que sustituye a gran velocidad el viejo capitalismo explotador sobre todo de la fuerza de trabajo de los obreros; sabemos de la inmensa potencia de la combinación de IA y Big Data: la una sin la otra no serían gran cosa –una IA calculando en el vacío por un lado y un inmenso almacén de datos no controlados por la otra–, pero una IA cada día más potente y rápida en el cálculo aplicada a la selección y la combinatoria de datos prácticamente infinitos es turbadora.

A pesar de reticencias, dudas y pesimismos, la IA ha llegado para quedarse; y la IN, conocedora de sus propios derechos y deberes, tiene la obligación de mantener la jerarquía «natural» sobre la IA –instrumento creado por ella a su servicio– y, para un mejor conocimiento y buen uso de este instrumento potencialmente perturbador de la civilización, nuestra IN debe acentuar y mejorar las propias capacidades en tres órdenes: el simbólico –lenguaje natural, lenguaje matemático–, el ético –libertad, responsabilidad– y el social –sentido de la justicia, compromiso con la democracia. Si la IN ha sido capaz de crear la IA, también tiene que ser capaz de ordenarla al bien común. Si no, o sumisión o cierre.