En la globalització tempestuosa que estem vivint ens ha sobtat una intensa llampegada i la seva gran tronada sota el respectable nom d’intel·ligència artificial (IA). Sembla nova en el panorama, però fa dècades que es mantenia reclosa en espais d’alta especialització. La fúria d’aquest llamp il·lumina molt, però el soroll del seu tro espanta molta gent. La llum dels avenços tecnològics és indiscutible i esperançadora en territoris transcendents per a la vida: la medicina, l’assistència personal, l’alliberament de molts treballs de rutina –alguns, també d’intel·lectuals–, la mateixa informàtica d’on neix, la comunicació i el transport, la gestió empresarial i governamental, etc. Però el soroll del tro –no en sentit despectiu, sinó merament descriptiu– ha pres dimensions potser desproporcionades amb relació a la lluminositat prèvia.

El penúltim dels sorolls –perquè segur que durant el procés de publicació d’aquest text n’hi haurà hagut algun altre– és la disputa sobre la «carta de la moratòria» relativa a la irrupció descontrolada del xat GPT a les nostres vides. Es debat si aquesta petició de moratòria calia o no calia, si podia ser eficaç o no, si era alarmista o no, si era interessada o ingènua, si era assumible o no pels responsables privats i pels poders públics, o si, com a mínim, servia per estendre la consciència social dels riscos d’aquesta darrera deriva de la IA. Això darrer sembla que s’ha aconseguit. El debat no és soroll en sentit negatiu, però forma part de l’allau de posicions, inclosa aquesta, que fan soroll per la mera acumulació sobtada de gran repercussió pública.

Enmig del soroll, que facilita la confusió, cal fer l’esforç, que aquí s’intenta, de precisar fins on sigui possible la comprensió del fenomen i els reptes d’aplicació que ens planteja.

 

IA: comprendre-la bé

Un aclariment previ: part de la confusió inherent al fenomen és l’ús del terme «intel·ligència», que revesteix aquesta tecnologia amb el prestigi d’una de les capacitats humanes més preuades. Curiosament, d’unes altres capacitats rellevants, com sentir o estimar, no se’n fan «germans artificials»: no es parla de «sensibilitat artificial» –en tot cas, de simples «sensors»–, ni d’«amor artificial», que ens produirien rebuig. En canvi, la IA desperta una secreta admiració, no exempta de temor –com a possible competidora i potser vencedora de la nostra intel·ligència natural (IN). Els qui, a les dècades dels 50 i 60, van experimentar les primeres grans evolucions de l’aleshores dita cibernètica, entusiasmats pels progressos de molta semblança a algunes de les principals habilitats de la humana intel·ligència, la van batejar amb aquest nom, degudament matisat pel qualificatiu d’«artificial». Però l’abús del substantiu ja estava fet; i és abús perquè la IN té una diversitat de trets molt allunyats dels propis de la màquina i, quan se les fon, se les confon i se’ns confon.

L’error radical, des del punt de vista filosòfic, és atribuir a un simple ‘instrument’ –per útil i potent que sigui– el caràcter de finalitat.

Cibernètica era un nom molt digne, derivat del grec kybernetés, que volia dir «timoner», la persona encarregada de pilotar un vaixell; importantíssima funció, però amb el petit detall que la funció del timoner no substitueix ni iguala la del capità; el timoner fa una feina de gran mèrit i responsabilitat, però sota les ordres del capità. Vet aquí on es fa més clar l’abús terminològic, perquè resulta que atribuïm a la IN la capacitat de decidir o establir finalitats, qualitat que, en la comparativa, no correspondria a un timoner sinó al seu capità; en la IA, però, les dues funcions ens arriben foses i confoses. Però l’èxit de la tecnologia IA reforça l’èxit de la seva denominació, que sembla irreversible; i cal recordar que, com va dir Austin, «els mots fan coses» i mantenir aquest mot «fa» uns efectes sobre la majoria de la població que no faria si simplement es continués dient «cibernètica» o, si calgués, «macrocibernètica» que, a més, es podria estalviar l’adjectiu d’«artificial» perquè ho és de mena. Hi hauria una rebaixa d’expectatives i temors molt tranquil·litzadora.

Amb aquesta reflexió sobre el nom de la cosa, ja podem apuntar un repte important que li és inherent: el repte de la seva correcta comprensió, tant per part de molts dels seus promotors –tecnòlegs i fabricants– com per part del públic general. No serà possible superar alguns dels reptes ètics i socials que veurem si és des d’una posició de principi errònia. L’error radical, des del punt de vista filosòfic, és atribuir a un simple instrument –per útil i potent que sigui– el caràcter de finalitat o, dit d’altra manera, permetre que un ésser èticament no autònom –com és i serà sempre una màquina produïda per nosaltres– accedeixi al que Kant anomenava «el regne de les finalitats», on segons ell vivim exclusivament els éssers de raó. Matisem a més, per reblar claus anteriors, que la raó i la intel·ligència no són ben bé el mateix, per molt forta relació que tinguin.

Max Tegmark, un tecnòleg de gran volada intel·lectual, ja remarcava la paradoxa que resulta del fet que éssers intel·ligents que investiguen sobre intel·ligència no es posen d’acord sobre què és intel·ligència. L’etimologia ens ajuda aquí també: perquè l’intelligere llatí d’on neix el nostre substantiu «intel·ligència» ens dona dues pistes importantíssimes: de les dues fonts del mot –intus-legere i inter-legere– deduïm que la funció de la intel·ligència natural és «llegir endins» o «triar entre» (legere és «llegir» i també «triar»), és a dir, comprendre l’ésser autèntic de cada cosa per sota de la seva aparença –intus-legere– (ja se sap que les aparences enganyen) i saber exercir la llibertat –inter-legere, triar entre, és a dir, saber triar–; sembla que la IA queda lluny d’aquestes funcions o, encara pitjor, que seria una intrusa si pretenia fer-ho per nosaltres.

PUBLICITAT
Neix DFactory Barcelona, la fàbrica del futur. Barcelona Zona Franca

Preocupar-se de l’ús ètic no és jugar contra la recerca i progrés de la IA, que cal que es mantingui i millori per principi d’interès general.

És indiscutible que la IA aporta funcionalitats noves a la nostra IN –com la potència de càlcul, la connectivitat permanent i multipolar i la capacitat d’actualització– però que la nostra conserva funcionalitats difícilment substituïbles –o gens, a parer de molts creadors d’IA–: interpretació de l’ambigüitat del llenguatge i de la complexitat vital, creativitat imaginativa i disruptiva, connexions emocionals i fisiològiques, consciència de valors i contravalors, consciència del context i de la seva variabilitat, consciència del dolor propi i d’altri, definició d’objectius humanament rellevants, educabilitat eticosocial, sentit de la ironia i l’humor, etc.

 

IA: usar-la bé

En aquesta situació, hi ha un repte intel·lectual bàsic: en un primer moment, aclarir la veritable naturalesa de la IA, els dubtes sobre la seva (im)possible consciència, i amb ella, la creativitat, emotivitat, educabilitat, per després planificar una òptima col·laboració entre IA i IN. De la mateixa manera que el llenguatge natural no ens importa ni val principalment per l’acumulació de significats del diccionari, tot i la seva rellevància, sinó pels usos concrets i variadíssims que som capaços de fer-ne, la IA ens ha d’importar i valer –encara més que per l’aclariment de la seva naturalesa– pels usos concrets que decidim que val la pena fer-ne –èticament, socialment i pragmàticament.

«Usar-la bé» té dos sentits: el merament pragmàtic, és a dir, saber-la fer servir per assolir efectes d’interès –cirurgia d’altíssima precisió, per exemple–, que aquí, amb la importància que sens dubte té, donem per descomptat, ben garantit pel gran potencial de l’enginyeria que la construeix. I el segon sentit, que aquí ens importa i que de moment és menys garantit, és l’ètic o l’aplicació respectuosa amb principis i valors que ens semblen humanament irrenunciables. Preocupar-se d’aquest ús ètic no és jugar contra la recerca i el progrés de la tecnologia d’IA, que cal que es mantingui i millori per principi d’interès general, sinó únicament vetllar per un altre principi d’interès general, tant o més important que l’anterior, que és la preservació de la dignitat humana i dels valors, drets i llibertats que se’n deriven.

Les normes que es vagin acordant sobre l’acció de la IA orientades a aquesta preservació no es poden entendre com a limitacions empobridores, sinó com a adaptacions enriquidores: de la mateixa manera que impedir un risc d’amenaça a la salut física d’un medicament no és «limitar» la farmacologia sinó adaptar-la a l’interès general de la salut humana i d’aquesta manera enriquir el seu sentit, impedir una amenaça ètica o social a la IA és simplement adaptar-la o vincular-la a l’interès dels valors humans, dels quals neix i als quals es deu –valor del coneixement i llibertat de recerca, que formen part del conjunt de drets i valors humans bàsics.

En opinió de dos pensadors tan distanciats entre ells com Harari i Zizek, pot trencar-se «el sistema operatiu» de la civilització, el llenguatge natural.

Alguns dels valors humans que es consideren generalment en risc per segons quins usos de la IA són els següents:

La veritat, fins i tot la petita i limitada de la vida diària, que, més enllà del dubte filosòfic sobre la seva naturalesa, es pot veure greument condicionada per la gran capacitat desinformadora, la productivitat desvergonyida de «fets alternatius» i fake news; i en un ordre més transcendent, en opinió de dos pensadors tan distanciats entre ells com Harari i Zizek, es pot trencar el que s’ha arribat a dir «el sistema operatiu» de la civilització, el llenguatge natural, per la degradació a què els xatbots invasius –entre els quals el cèlebre GPT– el poden sotmetre, font necessària de la construcció d’idees, mites, religions, relats, poesia, etc., elements indispensables de l’autocomprensió humana; és a dir, no solament està en joc la veritat, sinó la font única –per modesta i limitada que sigui– de la veritat humana possible o raonable, el llenguatge natural;

El coneixement, sobretot el científic, atès que els xatbots com el GPT reconeixen de si mateixos que en les seves respostes a qualsevol mena de recerques que puguin fer investigadors o estudiants no poden garantir la validesa de les seves afirmacions (beuen de tota mena de fonts, també falses, i en la combinatòria que els alimenta els surten resultats atzarosos i esbojarrats), fins al punt que estableixen com a objectiu dels seus textos no «la veritat» sinó «la plausibilitat»: és a dir, juguen a simular aparences de veritat, no pas amb l’esperit dels antics escèptics que defensaven la versemblança com a «aproximació» a la veritat, sinó la versemblança com a «simulació» de la veritat, és a dir, pura comèdia;

La privacitat o intimitat, extensament amenaçada per la captació directa i indirecta, gairebé sempre no consentida, de tota mena de dades de la vida de cadascú; com argumenta Carissa Véliz, la pèrdua de privacitat no és només una pèrdua individual, sinó una pèrdua col·lectiva, atès que gràcies a la privacitat mantenim la diferència entre uns i altres i, ensems, la varietat personal i el pluralisme social –essencial per a la democràcia;

La llibertat democràtica, ja que sense informació mínimament bona, no és possible la llibertat ni personal ni col·lectiva; fins i tot si les informacions no són falses, la mateixa hiperproducció informativa genera desorientació, saturació i bloqueig intel·lectual, com defensa Helga Nowotny, per a la qual sobra producció informativa i manca criteri i saviesa interpretativa; i, pel que fa al joc net electoral, és un gran perill la potència difusora de falsedats polítiques i manipuladora amb propaganda simulada i subtilment orientada a sectors de població sensible a determinats missatges populistes i/o abstencionistes, segons interessos sectaris;

La justícia, tant en l’ordre individual, per possibles lesions de drets derivades de biaixos dels algoritmes que regulen l’accés a llocs de treball, a crèdits, a assegurances, etc. –biaixos racistes, masclistes i edatistes, principalment–; com en l’ordre col·lectiu, especialment si atenem la molt argumentada posició de la filòsofa Shoshana Zuboff, que adverteix sobre la injustícia sistèmica que comporta el que qualifica de «capitalisme de la vigilància» o l’acumulació incontrolada i explotació sense regles de les dades de tothom, que substitueix a gran velocitat el vell capitalisme explotador sobretot de la força de treball dels obrers; sabem de la immensa potència de la combinació d’IA i Big Data: l’una sense l’altra no serien gran cosa – una IA calculant en el buit per una banda i un immens magatzem de dades no controlades per l’altra–, però una IA cada dia més potent i ràpida en el càlcul aplicada a la selecció i la combinatòria de dades pràcticament infinites és trasbalsadora.

Una IA cada dia més potent i ràpida en el càlcul aplicada a la selecció i la combinatòria de dades pràcticament infinites és trasbalsadora.

Malgrat reticències, dubtes i pessimismes, la IA és aquí per quedar-s’hi; i la IN, coneixedora dels seus propis drets i deures, té l’obligació de mantenir la jerarquia «natural» sobre la IA –instrument que ha creat per al seu servei– i, per a un millor coneixement i bon ús d’aquest instrument potencialment trasbalsador de la civilització, a la nostra IN li cal accentuar i millorar les pròpies capacitats en tres ordres: el simbòlic –llenguatge natural, llenguatge matemàtic–, l’ètic –llibertat, responsabilitat– i el social –sentit de la justícia, compromís amb la democràcia. Si la IN ha estat capaç de crear la IA, també ha de ser capaç d’ordenar-la al bé comú. Si no, o submissió o tancament.