Quan l’IA et llegeix, però no et porta lectors

Quan l’IA et llegeix, però no et porta lectors

Fa mesos que els editors de tot el món observen amb inquietud una tendència que, fins fa poc, semblava només un soroll llunyà: els sistemes d’IA generativa comencen a convertir-se en intermediaris informatius que “consumeixen” notícies, les processen i les ofereixen al públic sense que els mitjans d’origen vegin gairebé cap retorn. Ara, un estudi acadèmic signat per la Universitat de Stanford, combinat amb les dades del darrer informe de TollBit que recull The Fix, confirma el que molts editors intuïen: el periodisme alimenta les màquines, però les màquines no alimenten el periodisme.

El punt de partida és tan contundent que costa de pair. Segons TollBit, la probabilitat que un chatbot d’IA generi un clic cap a l’article original és del 0,33%. En el cas dels motors de cerca d’IA —aquests híbrids que responen consultes directament sense necessitat de redirigir a la font— la xifra puja lleugerament al 0,74%. En canvi, el Google clàssic continua enviant prop d’un 8,6% de trànsit. La diferència és abismal: els sistemes d’IA “veuen” molt més contingut que els humans, però no hi tornen lectors.

I aquí és on l’estudi de Stanford aporta una segona capa indispensable per entendre el problema. El text, signat per Jordan Hiltbrand, analitza com les estructures jurídiques que haurien d’emparar els continguts periodístics simplement no estan preparades per gestionar un ecosistema on la lectura, la còpia, la digestió i la transformació de la informació les realitzen màquines en temps real i a escala massiva. Molts editors creien que el dret d’autor seria el mur que frenaria l’ús massiu de les seves peces. Però Hiltbrand demostra que no és tan senzill: els fets —la matèria primera de la major part del periodisme— no són protegibles per copyright, i això deixa els mitjans en una zona gris que les tecnològiques aprofiten sense contemplacions.

Afegim-hi un altre element: segons TollBit, entre el tercer i quart trimestre de 2024, el volum d’escanejades per part de bots d’IA es va doblar. Això significa més càrrega per als servidors i més despesa per als editors, sovint petits, que han de mantenir la infraestructura perquè els seus continguts siguin accessibles. El problema no és només que els bots no portin trànsit; és que, a sobre, fan pujar els costos.

I el vell recurs del robots.txt tampoc no és la solució. Tant The Fix, mitjançant la periodista Priyal Shah, com l’estudi de Stanford subratllen el mateix: molts bots d’IA ignoren les instruccions i continuen rastrejant igualment. És com deixar clar que no vols visites i trobar-te la casa plena. La resposta d’alguns editors anglosaxons comencen a ser els anomenats bot paywalls: quan el visitant és un bot, se li bloqueja el contingut o se’l deriva a una pàgina on se li exigeix una llicència. Encara és una estratègia incipient, però marca un camí: el de recordar que el contingut periodístic té propietari, valor i cost.

Però el debat no és només tècnic o legal. L’eix central del problema és que la irrupció de l’IA amenaça el vincle entre mitjà i comunitat. Quan un chatbot ofereix respostes basades en el treball dels periodistes, però no identifica la font ni deriva trànsit, s’esvaeix la visibilitat del mitjà, la capacitat d’atraure anunciants, la força per captar subscriptors i, sobretot, la connexió amb el lector. I en el cas dels editors de proximitat —de comarques, de ciutats mitjanes, de barris— aquesta connexió és el seu principal actiu.

És aquí on l’avís de Stanford es torna especialment rellevant per als editors catalans: si la indústria no reacciona amb normes, acords o mecanismes de compensació, correm el risc d’entrar en una era on el periodisme és essencial per formar models d’IA… però completament prescindible per al negoci de les plataformes que fan servir aquesta informació. Una paradoxa tan perillosa com evident: sense periodisme no hi ha fets, però sense retorn econòmic no hi ha periodisme.

Què poden fer, doncs, els editors locals? L’estudi i The Fix apunten algunes vies: començar a monitorar de manera sistemàtica els bots que rastregen els seus webs; aplicar restriccions o filtres quan calgui; explorar acords col·lectius amb empreses d’IA; i, sobretot, reforçar les peces de periodisme local que cap model pot reproduir amb qualitat: reportatges de carrer, cròniques d’actes, entrevistes a agents locals, explicació de processos municipals. Tot allò que passa “a peu de territori” i que només un mitjà arrelat pot captar i interpretar.

La situació és delicada, però té una lectura possible en positiu: si els editors locals són capaços d’entendre què passa, defensar-se i reclamar el lloc que els correspon en aquest nou ecosistema, poden sortir-ne reforçats. No hi ha cap IA capaç —encara— d’explicar un ple municipal amb el mateix context que qui hi és. Ni de captar el pols d’una festa major. Ni d’entrevistar una regidora que decideix un canvi urbanístic que afectarà un barri sencer.

En un moment en què la tecnologia sembla empassar-se-ho tot, el periodisme de proximitat pot mantenir, precisament, allò que cap plataforma pot suplantar. Però per defensar-ho, primer cal entendre com i per què ens està llegint la IA. I què s’endú, sense tornar-ho.- EL BLOC DE L’ESTANIS / COMUNICACIÓ 360º (Il·lustració: TyN Magazine)