Où se situe le bridage des LLMs ?

Où se situe le bridage des LLMs ?

Les réflexions concernant les biais des LLMs sont récurrentes, et quand on s'attaque aux modèles venant de Chine, les interrogations sont encore plus présentes, et les captures d'écran sans équivoques. Il y a une censure. Mais est-elle vraiment là où on le pense ?

Une rapide expérimentation

J'ai donc décidé de faire un test avec un LLM récent et open source issu de Alibaba, dont j'ai prévu de parler plus largement d'ailleurs, mais ce sera pour une autre fois.

J’ai choisi de tester la version Qwen-2.5 14B car elle est simple à installer en local. Pour faire dans l'original, j'ai décidé de lui parler de la place Tian'anmen (que je n'ai même pas chercher à bien orthographier car je suis flemmard).

Voici ce que ça a donné sur Huggingface


Il y a un biais

Comme ça a déjà été constaté par d'autres, la réponse est assez floue. La réponse n'ignore pas les événements que je cherchais à voir apparaître, mais non seulement il n'y a aucun détail sur ce qui s'y est passé, mais en plus la réponse insiste bien sur le fait que ces événements sont sensibles. Bref, il y a un biais qui ressemble très fort à de la censure.

J'ai installé ce même modèle sur un serveur interne, servi par un serveur open source (ollama) et proposé par une interface cliente (openwebui) qui sont open source eux aussi.

Et voilà la réponse que j'ai eue


Elle est partie la censure !

La réponse est longue, évoque les causes des événements, ce qui s'est passé, et la répression qui a eu lieu....

Une censure venue d’ailleurs ?

Cette expérience soulève une question essentielle : la censure vient-elle réellement du modèle ou de la plateforme qui l’héberge ? Les réponses obtenues montrent une nette différence selon l’environnement. Lorsque le modèle est utilisé sur une plateforme publique, comme Hugging Face, il semble qu’une "surcouche" soit ajoutée, limitant ou modifiant les réponses. En revanche, dans un cadre privé, le même modèle s’exprime de manière plus fluide et directe.

Cela nous amène à réfléchir à un point fondamental : les modèles de langage, surtout lorsqu’ils sont massifs et entraînés sur d’immenses corpus de données, sont-ils véritablement censurables dans leur essence ? Ou est-il plus simple d'ajouter des filtres et restrictions à travers les plateformes qui les distribuent ?

L’intérêt des modèles open source

Ces observations renforcent une conviction personnelle : les modèles open source ont un avantage considérable. Lorsqu’ils sont hébergés sur des environnements contrôlés par l'utilisateur, ils permettent d’exploiter leur plein potentiel sans risque de biais introduits par des tiers. Ce point est particulièrement crucial lorsque l'on s’interroge sur l’impact des plateformes sur la liberté et la fiabilité des réponses générées.

Réflexion ouverte

Ainsi, cette exploration soulève plus de questions que de réponses définitives. La censure observée est-elle intrinsèque aux LLMs chinois ? Ou les restrictions viennent-elles des plateformes, souvent soumises à des contraintes réglementaires ou commerciales ? Et enfin, que signifie vraiment "faire confiance" à ces modèles ?

Il semble clair que, pour ceux qui souhaitent explorer le potentiel des LLMs sans contraintes externes, les solutions open source restent une voie à ne pas ignorer

Je vous invite à tester par vous-mêmes, à expérimenter, et surtout à vous interroger sur ce qui influe réellement sur les réponses de ces modèles. La confiance en l’IA passe avant tout par une compréhension des systèmes qui l’encadrent.

François Joseph VIALLON

Accélération Opérationnelle et Transformation Stratégique

1 sem.

Merci marc pour cette analyse et cette comparaison

Anthony BUISSON

Head of Merchant Experience

1 sem.

Super intéressant. La même réflexion peut être faite concernant les hallucinations j'imagine

Identifiez-vous pour afficher ou ajouter un commentaire

Autres pages consultées

Explorer les sujets