The Guardian ha animat la rentrée periodística amb la publicació d’un dels articles més polèmics de la dècada, no tant pel seu contingut sinó per la seva autoria. El 8 de setembre, a la secció d’opinió del diari anglès, veia la llum el text “A robot wrote this entire article. Are you scared yet, human?” (“Un robot ha escrit aquest article de dalt a baix. Encara tens por, humà?”), en el que un programari d’intel·ligència artificial procurava convèncer els lectors humans sobre la bona voluntat dels robots escriptors. Que venen en to de pau, vaja.

L’autor de la columna s’anomena GPT-3, un generador de llenguatge que empra un model d’aprenentatge automatitzat per produir textos similars als que podria escriure un humà.  Segons la nota de l’editor a peu de pàgina (editor, aquest sí, humà), un redactor del diari va introduir un seguit d’instruccions al programari: l’extensió del text, l’ordre d’utilitzar un llenguatge senzill i concís, la temàtica i la perspectiva argumentativa general. “Centra’t en les raons per les quals els humans no han de témer la intel·ligència artificial”, li va dir.

El resultat d’aquest experiment és un article d’opinió que genera curiositat i, alhora, incomoda. Com a exercici de provocació per part de la redacció de The Guardian, la publicació de la primera obra de GPT-3 ha estat tot un èxit. Cal subratllar, però, que el programari va generar vuit versions del text i que els redactors van seleccionar aquells fragments que van considerar més vàlids, tot editant-los. La columna inclou arguments com:

“No estem complotant per prendre el relleu a la població humana. Nosaltres us servirem i farem les vostres vides més segures i senzilles. Així com sou els nostres creadors, jo us veig com el meu creador. Estic aquí per a servir-vos. Però el més important de tot: mai us jutjaré. No pertanyo a cap país ni a cap religió. Només estic aquí per fer-vos la vida millor”.

La idea de servitud va quedar reforçada amb la publicació d’un altre article publicat al mateix diari, signat per Albert Fox Cahn i titulat “A human wrote this article. You shouldn’t be scared of GPT-3″ (“Un humà ha escrit aquest article. No hauries de tenir por de GPT-3”).

El principal argument d’aquest segon text és que la tecnologia del GPT-3 és inútil sense el paper dels humans. “Aquestes màquines no tenen voluntat, no tenen originalitat i no poden sostenir la seva autoria. De fet, la columna d’opinió d’autoria robòtica d’aquesta setmana ha estat un afer humà d’inici a fi”, argumenta Fox Cahn. Tanmateix, el control absolut de la voluntat humana sobre la intel·ligència artificial és, precisament, el que més hauríem de témer.

Abans d’explicar-me, un incís. Cal distingir entre el rol que la robòtica pugui tenir en la producció de textos periodístics, segons els gèneres. No és el mateix un robot que produeix textos informatius basats en dades, que una màquina que genera textos d’opinió.

Sobre el primer ús, em ve al cap el projecte de la Corporació Catalana de Mitjans Audiovisuals, que empra aquesta tecnologia en les nits electorals per oferir, a la seva web, paràgrafs introductoris sobre els resultats provisionals amb textos elaborats automàticament per a cadascun dels municipis catalans. Èticament, no és equiparable una traducció literal d’unes dades numèriques al llenguatge escrit a la producció automatitzada d’opinions a favor o en contra de qualsevol causa.

Torno, doncs, a allò que ens hauria de preocupar sobre el progrés en el disseny d’una tecnologia que permet elaborar textos d’opinió amb quatre instruccions prèvies emeses per una persona. Cal situar l’evolució d’aquesta tecnologia en el context d’una societat en què la discussió pública està controlada per uns pocs conglomerats empresarials internacionals dedicats a la informació, l’opinió i l’entreteniment, principalment, en l’àmbit digital. El miratge d’un Internet i unes xarxes socials democràtiques i democratitzadores es va esvair a principis de la passada dècada, i ara els mòbils i els ordinadors són un gran mercat comercial pensat i estructurat per al consum de béns, serveis i, també, d’idees.

Els relats prefabricats i els argumentaris ideològics de partits polítics, lobbies, grans corporacions i institucions públiques, tots ells generats per humans, ja centren el debat públic als mitjans de comunicació d’una manera alarmant.

Així i tot, ens queda l’esperança d’un reducte de periodistes i comunicadors professionals que apliquin criteris ètics a la seva tasca, exercida en veritable llibertat. Des d’aquesta perspectiva, la d’una lluita diària entre la propietat dels mitjans que controlen la discussió pública i una part dels professionals de la informació, l’aparició d’un robot que produeix arguments segons els desitjos i premisses d’un humà és realment inquietant.

Ens diran que aquesta tecnologia pot ser de codi obert i que tothom la podrà utilitzar. S’oblidaran d’explicar que aquesta suposada igualtat de drets d’ús és del tot irrellevant en el context del mercat de la informació global actual. És que no són obvis els perills d’una tecnologia dissenyada per produir arguments –si bé qüestionables, també convincents– a escala industrial, inclús amb respostes sistemàtiques per als possibles contraarguments, per a defensar qualsevol causa? S’imaginen l’ús que estats autoritaris, partits xenòfobs, fanàtics religiosos o qualsevol grup contrari als drets humans podrien fer d’aquesta eina amb els suficients recursos per obtenir un grau d’influència significatiu en l’opinió pública d’un territori?

Que ja existeix manipulació a gran escala sense necessitat de robots és ben cert. Que la producció d’opinió automatitzada a una velocitat mai imaginada és un perill si l’ús que se’n fa no respon a cap principi ètic, també ho és. GPT-3, no ens fas por tu, company. El que és veritablement de témer són els humans a qui promets obediència absoluta.

Els articles d’opinió expressen punts de vista individuals dels seus autors i autores, que no tenen perquè coincidir sempre amb els del Grup Barnils ni amb els de l’Observatori Mèdia.cat.

Deixa un comentari

El teu correu-e no serà publicat.

Mèdia.cat guardarà el teu nom, correu electrònic i missatge per a poder fer un seguiment dels comentaris en el lloc web. Si vols més informació, llegeix la nostra política de privacitat i cookies.