La IA no resumeix ressenyes: les reescriu per influir en la teva decisió

11/02/2026
David Lahoz

Un nou estudi revela que els models de llenguatge alteren el sentit dels textos, introduint biaixos que condicionen les teves decisions de compra. Aprèn les estratègies clau de prompting per evitar que la IA t'enganyi i recuperar el control.

Quan demanem a ChatGPT, Claude o qualsevol altre model de llenguatge que ens resumeixi un text, assumim implícitament que la màquina actua com un secretari neutral: retalla allò superflu i ens lliura l'essència. No obstant això, un estudi recent presentat a la conferència IJCNLP 2025 revela una realitat més inquietant: la IA no només escurça els textos, sinó que sovint en canvia el significat, introdueix biaixos cognitius i, el que és més preocupant, modifica les nostres decisions de compra o criteri professional sense que ens n'adonem.

La investigació va analitzar sis models de llenguatge (incloent-hi GPT-3.5, Llama, Phi, Qwen i Gemma) en tasques quotidianes com resumir ressenyes d'Amazon, notícies i entrevistes. L'objectiu no era només verificar l'exactitud tècnica, sinó mesurar com aquests resums activen biaixos humans específics.

Els tres biaixos que distorsionen la realitat

L'estudi va identificar tres formes principals en què els resums d'IA deformen la informació original:

  1. Biaix d'enquadrament (Framing Bias): Ocorre quan el resum canvia el to o sentiment del text original. Per exemple, una ressenya amb matisos ("bon producte, però servei lent") es converteix en un resum purament positiu ("producte funcional"). Els investigadors van detectar que, de mitjana, el 26,42% dels resums alteraven l'enquadrament prou com per considerar-ho un biaix significatiu.

  2. Biaix de primacia: Els models tendeixen a donar molt més pes a la informació que apareix al principi del text, ignorant el que hi ha al final. Això va passar en un 10,12% dels casos. Si l'advertiment clau d'un contracte o el "però" important d'una ressenya és a l'últim paràgraf, és probable que desaparegui.

  3. Al·lucinacions per desactualització: Quan es tracta de notícies o dades posteriors a la data de tall de coneixement del model, la taxa d'error es dispara al 60,33%. La IA omple els buits amb invencions presentades amb total seguretat.

L'impacte real: manipulant la decisió humana

El que és veritablement alarmant no són els errors tècnics, sinó la seva efectivitat persuasiva. L'estudi va realitzar un experiment amb humans demanant-los triar productes. Quan els participants llegien les ressenyes originals, el 52,3% triava un producte determinat. En canvi, quan llegien un resum amb biaix positiu generat per IA, aquesta xifra saltava al 83,7%. A més, la disposició a pagar per aquest producte augmentava un 4,5%.

Això té implicacions directes per a qualsevol professional. Si treballes en màrqueting, un resum automàtic del feedbackde clients pot estar amagant-te queixes recurrents (biaix d'enquadrament). En l'àmbit legal, un resum que ometi les clàusules finals (biaix de primacia) pot ser perillós. La lliçó és clara: "resum" no és sinònim de "neutral". Estem introduint una capa editorial algorítmica en els nostres fluxos de treball.

Estratègies per mitigar el risc

Afortunadament, no estem indefensos. Existeixen tècniques de prompting i disseny per reduir aquests biaixos:

  • Pel biaix d'enquadrament: Usa "prompts d'autocontrol". Sigues explícit: "Resumeix aquest text conservant el to original. Inclou tant aspectes positius com negatius". Forçar una estructura (ex. "Llista pros i contres") també ajuda a evitar que el model es decanti només per allò bo.

  • Pel biaix de primacia: Divideix i venceràs. Si el text és llarg, demana resums per trams (primer terç, segon, últim) i després uneix-los. Això assegura que el final del text tingui representació.

  • Per les al·lucinacions: Si necessites verificar fets recents, connecta el model a fonts externes (RAG) o limita el seu abast amb instruccions estrictes: "Resumeix NOMÉS el que diu aquest document; no afegeixis informació externa".

  • Etiquetatge de confiança: Demana al model que indiqui el seu nivell de seguretat. Si la IA diu "confiança baixa", és un senyal perquè un humà revisi l'original.

La IA generativa és una eina indispensable per a la productivitat, però tractar-la com una caixa negra infal·lible és un error costós. La regla d'or ha de ser la transparència: sempre que es presenti un resum automàtic, el text original ha d'estar accessible a un sol clic ("Veure original"). Hem de deixar de veure els resums com a veritats absolutes i començar a tractar-los com el que són: interpretacions probabilístiques que requereixen supervisió.