Intel·ligència artificial i democràcia

És la nostra responsabilitat, com a persones i forces d’esquerres, dibuixar i fer realitat escenaris on la tecnologia estigui al servei de la majoria social, és a dir, escenaris democràtics per a la IA.

Quan parlem d’intel·ligència artificial (IA) i de tecnologies de la informació, ens venen al cap les grans empreses nordamericanes que monopolitzen l’economia de plataformes, els caps visibles de les quals vam veure fa uns mesos apadrinant la investidura de Donald Trump, amb salutació feixista inclosa. Com la màquina de vapor durant la revolució industrial o com qualsevol altra tecnologia, la IA és explotada per la classe dominant per als seus propis interessos. És la nostra responsabilitat, com a persones i forces d’esquerres, arrabassar-los aquest privilegi, i dibuixar i fer realitat escenaris on la tecnologia estigui al servei de la majoria social, és a dir, escenaris democràtics per a la IA.

El somni socialista de la cibernètica

De fet, en el cas de la IA, no ens cal fer gaire esforç per dibuixar aquests escenaris perquè, encara que siguin relativament poc coneguts, tenim precedents prou explícits. Potser el més significatiu d’aquests precedents és el projecte Cybersyn, una iniciativa pionera duta a terme a Xile durant el govern socialista de Salvador Allende i que tenia per objectiu gestionar de manera eficient l’economia del país mitjançant l’ús de tecnologies de la informació i sistemes de control en temps real. El projecte va ser concebut per un equip d’enginyers xilens liderats per l’anglès Stafford Beer, expert en cibernètica amb simpaties trotskistes. La idea del projecte era crear una xarxa de telecomunicacions que connectés les empreses estatals i els centres de presa de decisions del govern per optimitzar la producció, distribuir recursos de manera eficient i equitativa, i respondre ràpidament als canvis en la demanda o als problemes de subministrament. Aquest sistema es basava en principis cibernètics, i buscanva equilibrar l’autonomia local i en els llocs de treball amb la presa de decisions centralitzada.

El projecte va arribar a implementar-se parcialment, amb una sala d’operacions central (anomenada «Opsroom») a Santiago, equipada amb pantalles i terminals que permetien visualitzar dades econòmiques en temps real. Tot i les limitacions tecnològiques de l’època, elements de Cybersyn van demostrar ser una eina útil per a la gestió econòmica, en particular durant les vagues patronals finançades pels Estats Units com a part de la guerra econòmica contra el govern socialista. No obstant això, el cop d’estat de 1973 i l’assassinat d’Allende van posar fi abruptament al projecte. Malgrat la seva curta durada, Cybersyn ha passat a la història com un exemple innovador de com la tecnologia pot ser utilitzada per a la planificació econòmica i el benestar col·lectiu, i continua inspirant pensadors i tecnòlegs que busquen alternatives al model econòmic dominant.

La cibernètica —que estudia els sistemes de control i comunicació en éssers vius, màquines i organitzacions, i com aquests sistemes processen informació, reaccionen al seu entorn i s’autoregulen— també va gaudir de gran prestigi acadèmic a la Unió Soviètica. El concepte de cibernètica havia estat introduït pel matemàtic nord-americà Norbert Wiener a cavall dels anys quaranta i cinquanta, en les seves obres Cibernètica: o el control i la comunicació en l’animal i la màquina i L’ús humà dels éssers humans. Entre d’altres qüestions, Wiener reflexionava sobre la tendència deshumanitzadora a tractar les persones com a màquines (a la fàbrica, en les burocràcies) i sobre el potencial de l’automatització per alliberar la humanitat de feines repetitives i penoses; però també del perill que l’automatització causés atur i desplacés certs treballadors. Wiener era explícitament crític amb l’estalinisme i, inicialment, la cibernètica va ser rebutjada a la Unió Soviètica. Amb la mort de Stalin, però, la cibernètica va esdevenir central en el panorama científic soviètic en les dècades dels anys 60 i 70, tot donant pas a allò que, a partir dels 80, hem anomenat les ciències de la computació.

La realitat tecnològica

Més enllà del somni d’una tecnologia que alliberi la humanitat de les feines menys desitjables, permeti a les persones gaudir de més lleure i garanteixi una distribució racional i equitativa dels recursos, quina és la realitat d’allò que avui anomenem intel·ligència artificial? Entendre uns principis bàsics del funcionament de la IA és indispensable per tal d’avaluar-ne les potencialitats i les limitacions i, per tant, per construir els escenaris democràtics que desitgem.

En les últimes sis o set dècades, el desenvolupament de la IA ha oscil·lat entre dos paradigmes diferents. El primer, conegut com a IA simbòlica, es basa en el fet de representar el coneixement i el raonament mitjançant símbols i regles lògiques definides per experts humans, amb l’objectiu de modelar el funcionament abstracte d’un cervell racional. Aquest paradigma, que és més directament identificable amb allò que entenem per «intel·ligència» (capacitat de raonament abstracte, etc.) i que en certs moments ha representat el corrent principal dins la IA, és avui molt minoritari: pràcticament cap de les eines que avui identifiquem amb la IA sorgeixen d’aquest paradigma. Per contra, la majoria d’aquestes eines d’última generació sorgeixen del segon paradigma, el de l’aprenentatge estadísitic. En aquest altre paradigma es fan servir grans quantitats de dades preexistents (per exemple, textos o imatges) per aprendre patrons estadístics. Un cop apresos aquests patrons mitjançant models matemàtics que s’ajusten a les dades d’entrenament, es fan servir els models per a generar «dades» noves (nous textos o noves imatges): d’aquí el nom de models generatius. Per exemple, a l’hora de generar un text, la IA simbòlica intentaria aplicar una certa gramàtica formal (regles sobre les paraules, les seves funcions, el seu ordre, etc.), mentre que un model generatiu estadístic com GPT (sigles de l’anglès generative pretrained transformer) senzillament calcula la probabilitat de la propera paraula d’entre totes les paraules possibles, i en tria una que té una probabilitat alta donat el context i el text ja generat… i repeteix el procés fins que decideix acabar. Això no vol dir que GPT es limiti a copiar textos preexistents, però sí que en generarà de nous d’acord amb els patrons identificats en el conjunt d’entrenament.

Aquestes consideracions bàsiques sobre el funcionament de la IA generativa ens permeten valorar alguns dels perills i limitacions de la tecnologia en el seu estat actual. Com hem dit, els models generatius no «raonen» sinó que reprodueixen els patrons estadístics existents a les dades d’entrenament. Això vol dir que, per exemple, si les dades d’entrenament tenen biaixos sexistes o racistes, els models generatius reproduiran aquests biaixos, un fenomen que està àmpliament documentat en la literatura científica. I amb un agreujant important: la pretesa objectivitat de la IA que, per les raons que hem exposat, no és més que una il·lusió. L’episodi de l’Escola de Medicina de l’Hospital de St. George, a Londres a finals dels anys 70 del segle passat, ofereix un exemple dramàtic de tot plegat. L’escola rebia cada any més de deu sol·licituds per a cadascuna de les places que oferia, i l’administració va decidir implementar un programa informàtic que permetés fer un primer filtratge de les sol·licituds. La IA en qüestió es va entrenar amb les avaluacions de les sol·licituds dels anys precedents, fetes per humans que, entre d’altres consideracions, rebutjaven les sol·licituds amb un anglès deficient, faltes d’ortografia, mala redacció, etc. Ara bé, com que la IA del segle passat, lluny dels models de llenguatge actuals, no era capaç d’avaluar aquestes qüestions, el que va aprendre va ser a rebutjar sol·licitants amb noms no anglosaxons i provinents de països que no tenen l’anglès com a llengua pròpia: d’un patró estadístic amb un biaix més o menys justificable, en va sortir un algoritme que discriminava explícitament per l’origen dels sol·licitants. El 1988, la Comissió per a la Igualtat Racial del govern britànic va trobar l’escola culpable de discriminar en el seu ús de l’algoritme.

Un altre aspecte problemàtic de la IA actual que rau en les característiques de la tecnologia mateixa és que els models matemàtics necessaris per aprendre i reproduir els patrons estadístics són enormes: cada nova paraula que genera un model GPT requereix, literalment, l’avaluació de bilions (milions de milions) d’operacions matemàtiques. Això implica una despesa energètica i uns impactes mediambientals considerables (emissions de diòxid de carboni, ús d’aigua…). Segons les projeccions de l’Agència Internacional de l’Energia, el consum elèctric relacionat amb la computació massiva (IA, centres de dades i criptomonedes) podria doblar-se en pocs anys, passant de 460 TWh el 2022 a 1.000 TWh el 2026, que equival aproximadament al consum elèctric anual del Japó.

El malson de la IA al servei d’una minoria

Malauradament, i més enllà de limitacions tecnològiques, tan antic com el somni d’una IA al servei d’una societat millor és el malson de la IA al servei d’una minoria. La mateixa dictadura xilena de Pinochet va rebre finançament de la CIA, en el marc de la operació Còndor, per a l’establiment d’una base de dades centralitzada on el règim contribuïa intel·ligència, conjuntament amb altres règims de l’Amèrica Llatina, per tal d’esclafar els moviments «subversius» (és a dir, antiimperialistes i alliberadors) del continent. La CIA també va proveir d’ordinadors d’última generació (cosa gens trivial a finals dels anys 70), tant els serveis d’intel·ligència de països individuals que dirigien els esquadrons de la mort com l’aparell centralitzat del Còndor, que coordinava les seves activitats. A l’Uruguai, es van utilitzar ordinadors per classificar tots els ciutadans segons el seu «grau de perillositat».

I convé tenir present que aquesta distòpia no es limita ni al passat, ni a les activitats secretes, ni al «pati del darrere» de l’imperi; als Estats Units mateixos, a 2025, els tribunals que dicten llibertats condicionals en alguns estats fan servir un programari anomenat COMPAS (sigles de l’anglès Correctional Offender Management Profiling for Alternative Sanctions), que suposadament serveix per predir la probabilitat de reincidència dels condemnats. Un estudi independent d’aquest programari va concloure que «[é]s gairebé dues vegades més probable que les persones negres siguin etiquetades com a d’alt risc però que després no reincideixin, en comparació amb les persones blanques», i que «comet l’error contrari amb les persones blanques: és molt més probable, en comparació amb les persones negres, que se’ls etiqueti com a de risc baix però després tornin a delinquir». En la mesura que aquest programari és propietat d’una empresa privada i és de codi tancat (és a dir, ningú pot saber exactament què fa), és impossible auditar-ne el funcionament, saber amb quines dades s’ha entrenat, o entendre l’origen dels biaixos per tal de corregir-los.

Això ens porta a una segona consideració que ja apuntàvem al principi: tot i que la IA s’ha desenvolupat majoritàriament durant dècades en universitats i centres de recerca públics, avui la tecnologia de frontera està en mans d’empreses privades, la finalitat de les quals és la creació de plusvàlua i no pas l’interès comú. Més enllà de les consideracions sobre la transparència i sobre el control del funcionament dels algoritmes, això implica que el mercat, que ignora les exeternalitats de la tecnologia, tendeix a produir un excés de productes d’IA socialment perniciosos (usos militars, control social, desinformació…) mentre que sistemàticament produeix massa pocs dels productes socialment beneficiosos. I la propietat privada de la IA també ha portat a una bombolla financera que amenaça de col·lapsar, com ja va passar a principis dels 2000 amb la bombolla de les «puntcom»… tot plegat, amanit amb el component geopolític: el dia que es va presentar DeepSeek, el GPT xinès (més transparent que els competidors americans, fent servir models més petits i amb resultats similars), les accions d’empreses com Nvidia, Oracle o Microsoft es van desplomar a les borses, provocant pèrdues importants en els índex de referència.  

I finalment cal, com ja ho feia Wiener als anys 50, reflexionar sobre l’efecte de la IA sobre els llocs de treball. És difícil fer-ho de manera més precisa, concisa i entenedora que el físic Stephen Hawking:

Tothom podria gaudir d’una vida de luxe i lleure si la riquesa produïda per les màquines es comparteix, o la majoria de la gent pot acabar miserablement pobre si els propietaris de les màquines fan lobby amb èxit contra la redistribució de la riquesa. Fins ara, la tendència sembla decantar-se per la segona opció, amb la tecnologia impulsant una desigualtat cada vegada major.

És a dir: el problema no és tant la IA com el capitalisme. El fet que una tecnologia amb potencial per millorar significativament les nostres vides alliberant-nos de tasques indesitjables sigui una amenaça en el context del capitalisme il·lustra perfectament l’estupidesa del sistema econòmic imperant i per què cal bastir-hi alternatives.

Un programa democratitzador per a la IA

Cal doncs un programa democratitzador per a la intel·ligència artificial. Per les raons que hem anat desgranant, és imprescindible que el desenvolupament i control d’aquesta tecnologia estratègica estigui en mans públiques i comunitàries. Això implica finançar la recerca en centres i universitats públics, crear agències públiques d’IA i finançar infraestructures de computació sobiranes, allunyant-nos d’un model monopolitzat per grans corporacions privades que mercantilitzen les dades i les decisions algorítmiques. La IA ha de ser un bé comú, orientat a millorar el benestar de les persones, a alliberar-nos de feines que ningú no vol fer, i a repartir de manera més eficient, més justa i més equitativa el fruit del nostre treball, i no a maximitzar beneficis.

Paral·lelament, cal impulsar un esforç sistemàtic per estudiar i corregir els biaixos —de gènere, classe o raça— incrustats en els models, garantint auditories ètiques obligatòries i independents. Aquest esforç ha d’anar acompanyat d’una regulació rigorosa que exigeixi transparència algorítmica i capacitat d’auditar qualsevol sistema d’IA que s’implementi en l’àmbit públic o en serveis essencials. Finalment, cal una veritable alfabetització digital crítica de la població, que no es limiti a ensenyar a fer prompts (és a dir a fer preguntes i interaccionar amb eines d’IA), sinó que formi en matemàtiques bàsiques, lògica algorísmica i pensament crític. Es tracta de comprendre com funciona la tecnologia per poder qüestionar-la, controlar-la col·lectivament i evitar que ens condueixi cap a un futur alienant i distòpic.

Articles relacionats

Número 16

Recosir estratègicament des del municipalisme, una proposta

Davant de la retòrica i el simbolisme que ens ha portat a la inconcreció i, per tant, al desànim popular, es presenta la proposta del marc de col·laboració del Consell de la República amb les majories independentistes presents en bona part de les nostres institucions municipals.

Segueix llegint »