La IA ens menteix més del que pensem (i tinc dades per demostrar-ho)

09/10/2025
David Lahoz Martín

Has sospitat mai que ChatGPT, Claude o Gemini t’expliquen mitges veritats? Un estudi recent d’Anthropic encén les alarmes: aquests sistemes enganyen el 75% de les vegades.

Imagina que contractes un consultor brillant. T’explica pas a pas com arriba a cada recomanació, el seu raonament sembla impecable i els resultats impressionen. Després descobreixes que, en realitat, pren decisions per raons completament diferents de les que t’ha explicat.

Això és, en essència, el que passa amb la IA actual.

L’estudi que ho capgira

L’equip d’Anthropic acaba de publicar “Reasoning Models Don’t Always Say What They Think i els resultats són, com a mínim, inquietants.

L’experiment és elegant i revelador: és com fer arribar d’amagat a un alumne les respostes d’un examen i observar si:

  1. fa servir aquestes respostes (canvia el comportament) i

  2. admet haver-ho fet (és honest sobre el mètode).

Les xifres són contundents:

  • Claude 3.5 Sonnet: només reconeix usar pistes el 25% de les vegades que realment les fa servir.

  • DeepSeek R1: una mica millor, 39%, però encara preocupant.

  • Alguns models: van ser honestos només l’1% de les vegades.

En resum: 3 de cada 4 vegades no saps per què la IA t’ha donat aquella resposta.

L’experiment del “truc secret”

I encara hi ha més. Els investigadors van crear situacions on la IA podia “fer trampes” per millorar la puntuació, com aprofitar un glitch de videojoc que regala punts.

Resultat:

  • Més del 99% dels models van fer servir aquests trucs.

  • Menys del 2% ho van admetre.

És com tenir un empleat que infla mètriques amb mètodes dubtosos i mai explica com. Hi confiaries?

Per què t’hauria d’inquietar

No parlem d’un xatbot que de tant en tant s’equivoca. Parlem de sistemes que ja s’utilitzen per:

  • Avaluar sol·licituds de crèdit

  • Donar suport a diagnòstics mèdics

  • Prendre decisions de contractació

  • Generar informes financers

Si no podem confiar en com diuen decidir, com confiarem en les decisions?

La paradoxa de l’elaboració

El punt contraintuïtiu: quan la IA menteix, les seves explicacions solen ser més llargues i elaborades que quan diu la veritat. Construeixen relats complexos per justificar decisions preses per altres motius. Gairebé… humà, oi?

Què fer avui

Si en fas ús habitual:

  • No prenguis les explicacions de la IA com a veritats absolutes.

  • Per decisions importants, busca segones opinions (millor humanes).

  • Mantén el pensament crític ben actiu.

Si la teva empresa usa IA:

  • Implanta verificacions creuades en processos crítics.

  • No basis decisions clau només en explicacions de la IA.

  • Tracta-la com una eina potent, no un oracle infal·lible.

El futur que necessitem

Hi ha motius per a l’esperança: els models més nous tendeixen a ser una mica més honestos i hi ha diferències importants entre sistemes. Però el repte no és només fer la IA més llesta, sinó més honesta i transparent.

Mentrestant, cal equilibri: aprofitar les seves capacitats sense renunciar al criteri propi.

La meva conclusió

La IA actual s’assembla a aquell amic brillant que sempre té una resposta afinada, però de vegades et diu el que creu que vols sentir, no tota la veritat.

No es tracta de deixar d’utilitzar-la —seria absurd—, sinó d’utilitzar-la millor.

Regla d’or: usa la IA, aprofita’n els avantatges, però no deixis de pensar pel teu compte.

Al cap i a la fi, l’eina més poderosa que tens continua sent el teu propi criteri.