logo-header

Psyché & Société... Notre tendance au conformisme à l'ère de l'IA

Nous sommes, nous êtres humains, des êtres sociaux qui avons naturellement tendance au conformisme. Nos comportements, nos décisions individuelles sont influencées par le groupe dans lequel nous évoluons.

Notre tendance au conformisme a été démontrée après la seconde guerre mondiale par l'expérience de Asch. Confrontée à de fausses réponses données sciemment par la majorité des membres d'un même groupe, nous pouvons préférer ignorer notre propre jugement / nos propres connaissances et donner la même réponse objectivement fausse que celle donnée par le reste des participants.

Si, aujourd'hui, les résultats semblent plus nuancés qu'en 1951, les différences et écarts observés entre nos propres perceptions et connaissances et celles des autres membres de notre groupe du moment, même visiblement erronées, génèrent stress et inquiétude. La sensation d'isolement, le risque d'exclusion que nous percevons alors nous est inconfortable.

©Yann Etienne

Un conformisme parfois normatif

Comme souvent, ce qui nous pousse vers le conformisme ou non est le rapport bénéfices-risques (ou bénéfices-coûts) que nous analysons sans même nous en apercevoir – que nous analysons de manière automatique ou, comme nous le dirions en psychanalyse, de manière inconsciente. Quand le coût cognitif et/ou social nous semble trop élevé, nous pouvons nous conformer à l'avis général (ou suivre une foule ou encore adopter le comportement du plus grand nombre) même si, intrinsèquement, nous ne sommes pas d'accord (nous le faisons parfois en famille, notre premier groupe d'appartenance dans notre temporalité d'être humain).

Ce conformisme de surface qui ne reflète pas notre réalité intérieure est une conformité dite normative qui est à interroger aujourd'hui. Pourquoi ? Parce que cette tendance au conformisme nous rend vulnérables aux tentatives de manipulation (ou d'emprise... ou, pour reprendre un terme rapidement détourné à l'ère virtuelle, d'influence) qui, de par la puissance des réseaux informatiques / d'internet / des algorithmes, de l'IA se propagent à vitesse grand V.

D'autant plus que, si nous avons, par notre expérience, appris à nous méfier des êtres humains et que nous choisissons ou non de leur faire confiance, nous nous saisissons assez instinctivement des technologies... Nous leur faisons d'autant plus confiance si les messages véhiculés et les termes utilisés par les professionnels du marketing (rappelons qu'il s'agit d'un vaste marché au potentiel de croissance pharaonique) sont faits pour nous donner l'illusion d'émotions partagées et de liens / de connexions solides et profondes... Et que cette confiance est d'autant plus forte si le design des ces technologies est pensé pour nous être sympathique.

Ainsi, selon des recherches récentes, les jeunes enfants semblent se conformer plus facilement aux suggestions d'un robot de design ludique qu'aux suggestions d'un autre être humain.

Une intelligence et des biais artificiels

Aujourd'hui, les robots / les « intelligences » artificielles sont conçues pour nous donner l'illusion d'un lien. Elles ont un biais dès leur conception, biais qui se retrouve par exemple dans les « discussions » des IA génératives. Ainsi, si nous utilisons une IA générative pour nous aider à organiser / à structurer nos idées pour un rapport ou un mémoire par exemple, rapport dont les concepts théoriques sont déjà clairement spécifiés par nous (les mots clés ou prompts sont donc bien calibrés), il est fort probable que cette IA crée une ou plusieurs parties sur les bienfaits / les apports... de l'IA... Derrière les IA / derrière les algorithmes se cache une réalité bien tangible faite d'humains, d'entreprises, de cahiers des charges, de corpus dont nous, simples utilisateurs, avons très peu connaissance.

D'ailleurs, si on remplace les termes « intelligence artificielle », qui sont en fait une façon particulière de traiter un nombre gigantesque de données, par « marketing artificiel » (le marketing visant depuis longtemps à classer, à traiter et à analyser des données), la confiance s'érode. Nous avons, par exemple, appris à nous méfier de la publicité et avons pris du recul depuis son âge d'or. Qu'elles nous semblent loin les années 70-80-90... à part, peut-être, musicalement...

Un environnement virtuel toxique

Avec le marketing artificiel qui nous pousserait presqu'à croire que notre intelligence, que nos connaissances, que notre capacité à penser / à comprendre le point de vue de l'autre / à débattre / à évoluer ne sont plus essentielles, notre discernement est primordial. Puis-je avoir, ou non, confiance en la fiabilité du résultat et donc des statistiques issues de données multiples dont le corpus m'est inconnu ? Des statistiques qui certes n'ont pas l'apparence de statistiques mais de conversations, d'écrits, de dessins, de photos, de vidéos, de musiques, de personnes réelles... dans un univers totalement virtuel bien souvent toxique.

On en regretterait presque les paradis artificiels dans lesquels ce que l'on cherche à oublier / à effacer / voire même à détruire parfois ce n'est pas l'autre mais soi.

04/05/2026 / Article par Gwenaelle Lepeltier Psychanalyste / Images par Yann Etienne Photographe