Hace casi una década, cuatro eminencias científicas publicaron una carta en el Huffington Post. En ella se advertía del riesgo que la humanidad afrontaba con el desarrollo de una IA sin condicionantes éticos. Fue el 19 de abril de 2014 y los firmantes eran Stephen Hawking, Stuart Russell, Max Tegmark y Frank Vilczec. El primero fue aún más lejos. Dijo que si el ser humano investigaba sobre ella sin normas, cometería el mayor error de su historia. Estas advertencias provocaron en enero de 2015 un encuentro de expertos en Puerto Rico. Se propuso una moratoria que evaluara sus avances futuros para decidir si procedía impulsar un tratado internacional que prohibiera aplicaciones que fueran peligrosas para la humanidad. En julio de 2015 se organizó una Conferencia Internacional en Buenos Aires que concluyó con un manifiesto que solicitaba la prohibición de sistemas de IA en el ámbito militar. Lo suscribieron 3.000 investigadores que denunciaron que su uso bélico reactivaría las guerras, pues los avances en armas autónomas eran tan importantes como en el pasado la pólvora, el avión o la bomba atómica.

Estos esfuerzos de alertar sobre los riesgos explícitos de una IA sin ética, ni límites o regulación, fueron pronto olvidados. A pesar de que se confirmaron con el uso indiscriminado de armas autónomas guiadas por IA durante la guerra de Armenia y Azerbaiján por Nagorno-Karabaj en otoño de 2020. Estas armas se utilizan ahora en Ucrania y hacen que la guerra que se libra en ella se parezca a nuestra Guerra Civil. Recordemos que en España el empleo de la aviación sobre objetivos civiles anticipó la importancia trágica que tuvo después en la Segunda Guerra Mundial. Algo que convierte a Ucrania en un laboratorio donde China, por un lado, y Estados Unidos, por otro, chequean la robustez de las aplicaciones militares de sus sistemas de IA. Sobre todo si, como parece, el próximo round bélico del combate que disputarán China y Estados Unidos por la hegemonía mundial se producirá en Taiwán o el Mar de China, o en Israel y los territorios ocupados de Cisjordania y Gaza.

La importancia que tiene el ejemplo de las llamadas LAWS (Lethal Autonomous Weapon Systems) no es marginal en esta reflexión que propongo sobre el riesgo de aplicar sistemas de IA que nos conduzcan a una auténtica IA-cracia. Lo hago porque refleja plásticamente cómo la IA aplicada a la guerra, al no estar sometida a reglas que incorporen los principios del derecho humanitario bélico, por ejemplo, acaba maximizando los efectos destructivos y letales. Maximización que, además, fija su robustez en el reforzamiento ilimitado de las capacidades letales que proyecta sobre el enemigo. Algo que es lógico si hablamos del diseño de una IA que maneja sesgos que anulan la dignidad humana al considerarla irrelevante si el combatiente es un simple blanco u objetivo y no un soldado con derechos asociados a esa dignidad que le acompaña siempre como ser humano. También cuando guerrea.

Para leer el artículo completo escoge una suscripción de pago o accede si ya eres usuario/suscriptor.