La intel·ligència artificial s’ha integrat en l’ecosistema informatiu amb una rapidesa que no ha anat acompanyada de criteri ni de responsabilitat. No parlem d’un futur hipotètic: la IA ja està influint en com s’informa, què es creu i què es comparteix. I ho fa en un context de fragilitat democràtica, saturació informativa i desconfiança generalitzada. No hi ha dret que una tecnologia amb aquest impacte s’estengui sense un debat real sobre les seves conseqüències.
Les fake news no neixen amb la IA
La desinformació ha existit sempre. El que canvia amb la IA és la seva capacitat d’automatització. Abans, crear una fake news requeria temps, intencionalitat i una certa habilitat. Ara, qualsevol pot generar desenes de versions d’un mateix relat en minuts. La mentida ja no és artesanal, és industrial. I quan la producció es massifica, el soroll acaba ofegant qualsevol intent de contrast.
La IA no distingeix entre allò que és cert i allò que només ho sembla. Treballa amb patrons estadístics, no amb criteri epistemològic. Genera respostes plausibles, no verificades. En un entorn on molta gent llegeix titulars, fragments o resums ràpids, la diferència entre versemblança i veritat es dilueix. El resultat és una realitat informativa construïda a base de probabilitats, no de fets.
L’autoritat simulada
Un dels efectes més subtils —i més perillosos— de la IA és la seva aparença d’autoritat. Un text ben redactat, coherent i neutre genera confiança, encara que sigui fals. La màquina no sembla tenir agenda, ni interessos, ni ideologia. Però aquesta neutralitat és una il·lusió. Darrere hi ha dades, decisions de disseny i objectius comercials. Quan la mentida adopta una forma “objectiva”, costa molt més qüestionar-la.
Sovint es planteja la solució en termes tecnològics: millors filtres, models més precisos, sistemes de detecció de fake news. Però això és només una part del problema. El nucli és estructural. La IA està integrada en plataformes que prioritzen l’atenció, la viralitat i el rendiment econòmic. En aquest context, la desinformació no és una anomalia, és un resultat lògic del sistema.
Responsabilitat diluïda
Quan una fake news generada o amplificada per IA causa un impacte real, la responsabilitat es dispersa. La culpa no és del model, ni de la plataforma, ni de l’usuari. O ho és de tots alhora. Aquesta ambigüitat afavoreix la impunitat. Sense mecanismes clars de rendició de comptes, la desinformació automatitzada opera en una zona grisa on ningú respon del tot.
No hi ha dret que la veritat es converteixi en una opció més dins d’un càlcul estadístic. No hi ha dret a normalitzar que el criteri humà sigui substituït per sistemes que no entenen ni el context ni les conseqüències del que generen. I no hi ha IA dret mentre la tecnologia serveixi més per confondre que per informar, més per manipular que per comprendre.
El problema som nosaltres
La intel·ligència artificial no actua sola. Reflecteix les prioritats, els incentius i les renúncies de la societat que la desplega. Si acceptem un ecosistema informatiu basat en l’impacte i la superficialitat, la IA només en serà l’accelerador. El problema no és la màquina. El problema és haver assumit que tot s’hi val mentre funcioni.
I així, sense adonar-nos-en, passem del no hi ha dret al no IA dret. I quan això passa, la veritat deixa de ser un dret col·lectiu per convertir-se en una simple probabilitat.


