Fa gairebé una dècada, quatre eminències científiques van publicar una carta al Huffington Post. S’hi advertia del risc al qual s’enfrontava la humanitat amb el desenvolupament d’una IA sense condicionants ètics. Va ser el 19 d’abril de 2014 i els signants eren Stephen Hawking, Stuart Russell, Max Tegmark i Frank Wilczek. El primer va anar encara més lluny. Va dir que si l’ésser humà investigava sobre la IA sense normes, cometria l’error més gran de la seva història. Aquests advertiments van provocar una trobada d’experts, que va tenir lloc a Puerto Rico el gener de 2015. Es va proposar una moratòria que n’avalués els avanços futurs per decidir si calia impulsar un tractat internacional que prohibís aplicacions que fossin perilloses per a la humanitat. El juliol de 2015 es va organitzar una Conferència Internacional a Buenos Aires que va concloure amb un manifest que sol·licitava la prohibició de sistemes d’IA en l’àmbit militar. El van subscriure 3.000 investigadors que van denunciar que el seu ús bèl·lic reactivaria les guerres, perquè els avanços en armes autònomes eren tan importants com en el passat ho havien estat la pólvora, l’avió o la bomba atòmica.

Aquests esforços d’alertar sobre els riscos explícits d’una IA sense ètica, ni límits o regulació, es van oblidar ràpidament, tot i que es van confirmar amb l’ús indiscriminat d’armes autònomes guiades per IA durant la guerra entre Armènia i l’Azerbaidjan per l’Alt Karabakh la tardor de 2020. Aquestes armes s’utilitzen ara a Ucraïna i fan que la guerra que s’hi lliura s’assembli a la nostra Guerra Civil. Recordem que a Espanya l’ús de l’aviació sobre objectius civils va anticipar la importància tràgica que va tenir després en la Segona Guerra Mundial. Això converteix Ucraïna en un laboratori on la Xina, d’una banda, i els Estats Units, de l’altra, verifiquen la robustesa de les aplicacions militars dels seus sistemes d’IA. Sobretot si, com sembla, el pròxim assalt bèl·lic del combat que disputaran la Xina i els Estats Units per l’hegemonia mundial tindrà lloc a Taiwan o al mar de la Xina, o a Israel i els territoris ocupats de Cisjordània i Gaza.

La importància que té l’exemple de les anomenades LAWS (Lethal Autonomous Weapon Systems) no és marginal en aquesta reflexió que proposo sobre el risc d’aplicar sistemes d’IA que ens condueixin a una autèntica IA-cràcia. Ho faig perquè reflecteix plàsticament com la IA aplicada a la guerra, en no estar sotmesa a regles que incorporin els principis del dret humanitari bèl·lic, per exemple, n’acaba maximitzant els efectes destructius i letals. Maximització que, a més, fixa la robustesa en el reforçament il·limitat de les capacitats letals que projecta sobre l’enemic, cosa que és lògica si parlem del disseny d’una IA que maneja biaixos que anul·len la dignitat humana en considerar-la irrellevant si el combatent és un simple blanc o objectiu i no un soldat amb drets associats a aquesta dignitat que l’acompanya sempre com a ésser humà. També quan fa la guerra.

Per llegir l'article complet fes una subscripció de pagament o accedeix si ja ets usuari/subscriptor.