T’as vu…

… comme tu m’parles !

Les urgences psychiatriques connaissent déjà une augmentation des blessures narcissiques dues aux accidents numériques. Si l’essentiel de votre vie se déroule sur Internet, quand votre compte Twitter est soudainement débranché, ou que vos amis sur Facebook disparaissent tous brutalement, c’est encore plus douloureux qu’un tendon sectionné.

Quand, au mois de février, Microsoft a intégré ChatGPT à Bing, son moteur de recherche, celui-ci s’est rapidement montré agressif avec les utilisateurs ; notamment en critiquant vertement leur manière de poser les questions. Le ton est monté très vite. Jusqu’aux insultes. Microsoft a justifié cette agressivité en disant que « le modèle essaye de répondre sur le ton de l’utilisateur ; ça donne des réponses parfois creepy » (c’est-à-dire « affreuses » ou « flippantes »). Le patron de Micro soft a soutenu que l’on ne peut pas éternellement tester une IA en laboratoire. Il faut bien à un moment lâcher l’algorithme dans la nature. Au risque qu’il morde les utilisateurs, donc.

Plus prudent, Google éprouve pour l’instant en interne son agent conversationnel, prénommé Bard.

Nouveaux robots, nouvelles blessures

Mais les blessures les plus profondes et les séquelles les plus durables se produiront peut-être dans la langue elle-même. Les robots ChatGPT et ses cousins découpent et mixent n’importe quelle chaîne de signifiants.

L’analogie avec les robots ménagers n’est pas que de surface : un algorithme de traitement du langage naturel, comme on dit clans le jargon, commence, par découper en petits morceaux la question que vous lui avez posée.

Ça s’appelle la « tokenisation » : l’action de segmenter un texte en phrases, et une phrase en mots.

Ensuite, la machine attribue à chaque mot un vecteur, pour le situer dans l’espace sémantique, et ainsi localiser votre question dans un voisinage, pour pouvoir considérer son contexte.

C’est ainsi que Bard et Bing essayent de répondre à vos requêtes au plus près de leur formulation.

Les chatbots et les traducteurs automatiques, qui commencent à proliférer, considèrent donc le champ du langage comme un hors-d’œuvre, une assiette de crudités.

Comment modifient-ils notre manière de parler ?

Déjà par le fait que, pour éviter les équivoques, nous simplifions les questions que nous leur posons. Et puis ces robots de conversation diffusent les théories du langage, les stéréotypes et les manières de parler des programmeurs, lesquels ne sont pas réellement représentatifs de la diversité de l’espèce humaine.


Yann Diener. Charlie Hebdo. 15/03 15/03/2023


Laisser un commentaire