Pourquoi traiter l’IA comme une personne représente l’avenir
Nombre d’experts expriment leur inquiétude vis-à-vis de l’anthropomorphisme de l’IA, et leurs raisons sont tout à fait valables.
L’anthropomorphisme, c’est attribuer des caractéristiques humaines à des entités non humaines. Nous y sommes naturellement enclins : nous imaginons voir des visages dans les nuages, attribuons des intentions à la météo et dialoguons avec nos animaux domestiques. Il n’est donc pas surprenant que nous soyons tentés d’anthropomorphiser l’intelligence artificielle, d’autant plus que converser avec des modèles de langage (LLMs) nous donne l’impression de parler à une personne réelle. Même les développeurs et les chercheurs qui conçoivent ces systèmes peuvent tomber dans le piège de l’utilisation de termes humanisants pour décrire leurs créations, à commencer par des termes comme « apprentissage automatique ».
Cette préoccupation peut sembler dérisoire. Après tout, cela n’est-il pas simplement une bizarrerie inoffensive de la psychologie humaine, un témoignage de notre capacité à empathiser et à nous connecter ? Cependant, de nombreux chercheurs sont profondément préoccupés par les implications d’agir comme si l’IA était humaine, tant sur le plan éthique qu’épistémologique. Ils posent des questions importantes : Sommes-nous dupés en croyant que ces machines partagent nos sentiments ? Cette illusion pourrait-elle nous amener à divulguer des informations personnelles à ces machines, sans réaliser que nous les partageons avec des entreprises ? En quoi traiter l’IA comme une personne brouille-t-elle notre vision de son fonctionnement, de qui la contrôle et de la manière dont nous devrions nous y rapporter ?
Je suis conscient de ces risques réels et, pour être clair, lorsque je dis qu’une IA « pense », « apprend », « comprend », « décide » ou « ressent », je m’exprime métaphoriquement. Les systèmes d’IA actuels ne possèdent pas de conscience, d’émotions, de sens de soi ou de sensations physiques. Alors, pourquoi prendre le risque ? Parce que, aussi imparfaite que soit l’analogie, travailler avec l’IA est plus simple si on la considère comme une personne extraterrestre plutôt que comme une machine créée par l’homme. Et je pense qu’il est important de faire passer ce message, même en tenant compte des risques liés à l’anthropomorphisme.
Pas tout à fait un logiciel
L’IA, constituée de logiciels complexes, est souvent perçue comme un outil exclusivement destiné aux codeurs. Cette perception est tellement répandue qu’on la retrouve partout : les départements informatiques sont souvent chargés de la stratégie d’IA des entreprises, les informaticiens sont présumés être des experts dans la prévision des changements sociaux que l’IA pourrait engendrer, et, plus important encore, de nombreuses personnes semblent réticentes à utiliser l’IA parce qu’elles « ne connaissent rien en informatique ».
C’est comme si on disait que, puisque nous sommes constitués de systèmes biochimiques, seuls les biochimistes devraient s’occuper des humains – mais c’est encore pire que ça. C’est comme dire que seuls les chimistes devraient être autorisés à peindre, parce qu’eux seuls comprennent la composition moléculaire des pigments. Pourquoi laisserions-nous les artistes, qui peuvent être totalement ignorants de la composition de leurs peintures, utiliser une chimie si complexe ? Mais en réalité, c’est encore pire, car même les informaticiens ne comprennent pas toujours pourquoi les LLMs sont capables de réaliser certaines tâches.
Les LLMs sont constitués de logiciels, mais ne fonctionnent pas comme la plupart des logiciels. Ils sont probabilistes et largement imprévisibles, produisant des résultats différents à partir des mêmes entrées. Bien qu’ils ne pensent pas au sens humain du terme, ils génèrent des simulations de langage et de pensée humains qui, autant que nous puissions en juger, sont suffisamment originales pour surpasser la plupart des humains en termes de créativité. Ils sont perçus comme plus empathiques et plus précis que les médecins humains dans les essais contrôlés. Pourtant, ils sont également limités de manières étonnantes qui surprennent, comme leur incapacité à effectuer un raisonnement rétrograde.
Les LLMs sont essentiellement une forme très avancée de saisie semi-automatique. Alors, comment une telle saisie semi-automatique peut-elle accomplir ces tâches ? La réponse, jusqu’à présent, comme le décrit un excellent aperçu dans la MIT Technology Review, est que « personne ne sait exactement comment (ou pourquoi) cela fonctionne ».
Le résultat est que de travailler avec ces IA est franchement bizarre par moment.
Le jour où ChatGPT m’a dit non
J’ai demandé à ChatGPT de m’aider à mettre au propre une idée. J’ai souvent des idées pleins la tête et je lui demande en chat vocal via mon téléphone de me résumer ce que je viens de lui dire. Cela m’arrive de lui parler pendant de nombreuses minutes, en revenant sur ce que venais de dire 3 phrases avant, bref vraiment en mode brouillon… Si mes clients que je forme sur l’art de bien prompter me voyaient, je perdrais toute crédibilité… 😀
Voici par exemple la retranscription de ma demande : je voulais créer un concept (un nom, un logo) pour mettre sur nos création graphiques faites par IA. Je voulais montrer que la création n’est pas faite QUE par l’IA. Mais plutôt AVEC l’IA. Car quand on créé un visuel avec Mijourney par exemple, on passe du temps à l’imaginer, à le décrire (prompt) et ensuite à itérer pour avoir la bonne image, qu’on finit souvent par retoucher dans Photoshop. Ce travail ne peut pas être résumé par un « Fait par IA ». Il y a un vrai travail dans la création globale du visuel et l’usage de l’outil (quel qu’il soit, un pinceau ou Midjourney) n’est pas la part la plus importante.
J’ai donc essayé de lui expliquer cela avec des exemples (attention, comme je lui ai parlé en marchant à l’extérieur, il n’a pas pu retranscrire tous les mots et ce n’est pas très lisible…) :
Alors l'idée, c'est de travailler alors tout premier sur un un logo. Un symbole ? Je sais pas quelque chose qu'on pourrait mettre sur des contenus qu’on crée qu'on génère avec une intelligence artificielle. L'idée, ça serait un peu de de quand on travaille pour un client sur des visuels, des affiches ou même du contenu pourquoi pas ? De dire que ça a été créé par ia mais mais pas simplement. Dire qu'il écrit par l'IA en fait de façon dont je le vois, ça serait 3 choses en fait. Finalement ce logo on pourrait dire qu'il pourrait avoir 3 lettres IGS par exemple. On pourrait dire I comme imaginé par l'humain. J'ai comme généré par l'intelligence artificielle. Et comme sublimé par l'humain. L'idée, c'est de dire que l'idéal fait des choses incroyables, mais l'idée, l'imagination, la chose originale, elle vient du cerveau humain. L’IA toute seule, elles peuvent pas imaginer inventer des trucs, que ça soit un contenu texte. Avec une ia comme tu as pété ou un contenu photo comme avec l'ia midjourney, c'est-à-dire qu à un moment il faut lui donner l'idée. Il faut la décrire et plus on la décrit, plus elle est précise, plus la génération justement par l'i a sera de qualité. Et après on peut justement alors soit sublimer dans le sens on peut compléter manuellement, modifier, corriger hein, c'est du texte ou une image avec Photoshop et cetera. En sachant que le G et le s pour moi, c'est un process un peu itératif. Puisque il y a aussi suivant le rendu, on va redemander à l'i a de de modifier et et donc on va se se corriger dans ce dans son compte, dans sa description, dans sa demande. Pour que justement. L'IA soit meilleur dans dans son rendu donc ça c'est l'idée et donc en fait. IGS déjà de base mort dans mon concept. Dans l'idée c'est de dire Bah voilà ça serait un logo, à chaque fois qu'on fera visuel on fait un petit IGS. Alors le s je suis pas sûr sublimé. C'était un peu fort mais faudrait trouver un mot. Un mot, un mot équivalent pour faire un truc en 3 lettres et puis on en ferait graphiquement quelque chose et puis on pourrait poser ça et que ça devienne un peu la norme et que finalement on ferait un logo qu'on laisserait libre de droit et que tout le monde pourrait servir à la question. Copyright hein, quoi que ce soit ? Et. Et après, en allant plus loin ? Quand je vois un gadget, je me rends compte que c'est finalement le concept de la création. Quand on veut faire quelque chose. On a une idée, on l'imagine. On l'a décrit à quelque chose qui va la fabriquer. Voilà, si on n'est pas, Ben c'est nous, on a notre idée et on va et on va le peindre. Mais si on n'est pas peintre, on a l'idée et on va s'appuyer sur sur une IA généré. Et après Ben, de manière itérative, on va corriger et sublimer pour arriver vraiment au au au résultat. Et et suivant la qualité ou la compétence de l'humain. Le I sera plus précis. Et aura une part plus importante. Que le G. Finalement, IG, ça pourrait être un. Un process en 3 étapes avec des États plus ou moins grosses suivant. Suivant le niveau ou suivant la vision de l'idée, et finalement, plus on a une idée qu'on peut définir avec un peu de hauteur avec de la précision, plus le G sera apprécié de qualité et plus le s sera plus petit. Alors que si on a une idée un peu vague, le I fera petit. Et le G et le s vont être très gros. Il y aura plusieurs g finalement et plusieurs restes avant d'arriver au résultat final. Et je me dis que finalement, sur des débats sur. L'i a ce qu'elle est vraiment intelligente, qu'elle peut faire plein de choses, et cetera. Sûr avec ce concept qui GS ? Où, quel que soit le manière dont on appelle par la suite. Ce concept IGS ? Permet de de de, de définir sur le papier finalement, ce que c'est que la créativité ou la création, tout simplement la création. Et après, on peut faire plein d'exemples. Un peintre ? S'éteindre par exemple. Mais y a pas le temps. Voilà, il veut imaginer, il veut-il veut offrir un tableau à sa nièce, veut dire avec sa nièce, adorent Van Gogh et. Et il dit Bah tiens je, je lui ferai plaisir. C'est une peinture dans le style de Van Gogh, de sa maison de vacances par exemple. Donc s'il est peintre, il sait exactement ce qu'il veut, et donc s'il le fait, par exemple, Ben il va prendre son pinceau, il va savoir exactement ce qu'il veut-il va se corriger, et cetera. Donc le I, le G et le S, il va totalement. Si il a pas le temps, parce que admettons, il a trop de travail de travail, il va solliciter un autre peintre, il veut dire Bah voilà, j'ai besoin de et donc le il sera précis puisque il est peintre, il sait exactement ce qu'il veut et il va parler à quelqu'un qui s'y connaît en peinture, il va lui dire Ben Voilà, je voudrais difficilement Van Gogh, peut-être dans le style de ce tableau là, et puis plutôt avec un coucher de soleil, ou plutôt un pinceau ***** ou un peu, je veux un peu de grain, je veux un peu de. De matière. Bref, tout ça et donc ça sera précis. Et et s'il le demande à une IA comme une journée par exemple pareil, ils sont prompts sera hyper précis puisqu'il sait exactement ce qu'il veut-il va pouvoir dire à la machine, voilà je voudrais cette photo qui va me montrer qui va fournir à l'i a dans le style de tel tableau, peut-être de Van Gogh. Et puis va donner des précisions sur la taille sur à quel moment de la journée. Sur quel type de vue de la maison il veut sur des couleurs, sur des styles de trait, et cetera, et cetera. Alors quelqu'un qui ne s'y connaît pas du tout en en peinture. Alors déjà si elle veut faire la même chose, bah avec un pinceau, même avec un pinceau y arrivera pas. En demandant un peintre ? Bah elle sera peut être pas précis. Surtout si on part du principe que l'i a c'est comme dans ce dans cet exemple là agit comme un peintre et donc il ne lui pose pas de question bien sûr. Donc là bah il va lui dire que je voudrais un une peinture de type. En gogue, et cetera, et cetera. Il sera peut-être pas apprécié, le résultat serait peut-être pas ce qu'il a en tête et si demandé il y a. Bah c'est pareil, il sera pas précis et donc le G et le s vont être longs parce qu'il y a beaucoup d'échanges. Il va devoir modifier peut être désespéré. Tout ça pour dire que pour moi l'i a elle est. Ce n'est qu'un outil. Elle est encore plus forte si on maîtrise le sujet. Un photographe par exemple. Il maîtrise la photo, les angles, les appareils, les pellicules. Et cetera sera. On pourrait faire des photos incroyablement belles, incroyablement stylée grâce à mi-journée. Parce qu'il sait exactement ce qu'il va lui demander par rapport à quelqu'un qui qui n'a juste une idée et et va devoir bah pour le coup batailler. Donc les y a en fait pour moi, elles sont là, elles sont sur le g bien sûr. Aujourd'hui, suivant comment travail ? Les y a les ia peuvent déborder un peu sur le I aujourd'hui y a des méthodes. Par exemple là dans le cadre du tableau, on pourrait très bien dire à une IA. De quoi as-tu besoin ? Pose moi les questions qui vont te permettre de bien définir le pont. Et ça permettra d'améliorer, donc les IA peuvent travailler un peu sur le I. Avec l'humain pour l'aider à définir. Si symétrise en tout cas le le tout ça pour dire que l'humain doit vraiment se former. Bon en tout cas beaucoup pratiqué, former ça veut dire aussi de l autoformation. Il doit beaucoup pratiquer pour que il il puisse comprendre l'outil et pouvoir. Mettre à plat ce qu'il a en tête parce que le IYA que lui il l'a de base, même s'il y a, peut aider à générer des idées, mais ça va dépendre de ce que la façon dont tu veux lui demander, et donc ce ce qui est vraiment dans la tête, c'est lui. Et et donc voilà pour moi le j'ai les canaux donc en partant du de cette ce concept de IGS. Ou une autre lettre à la place du s hein ? Si on prend pas sublimer c'est à à travailler. Voilà le le concept global que que que sur lequel je réfléchis et et j'aimerais échanger avec toi, avoir ton avis.
(vous noterez que je bégaye quand même pas mal 😀 )
Ce n’est donc pas très lisible en l’état, mais le plus important est qu’il ait compris. Voici sa réponse :
Parfait ! il a tout compris !
Il s’en suit tout un échange dans lequel je le sollicite sur le choix des mots et on finalise sur le concept IGE : Imaginé par l’humain, Généré par l’IA, Embelli par l’humain.
Et si on écrivait un article de blog sur tout ça ? Je lui demande de rédiger l’article présentant le concept IGE.
Incroyable non ? Il n’a pas voulu faire l’article 😀
Pour lui, son rôle n’était pas de le faire. Il interprétait le concept IGE à sa sauce !
J’ai finalement réussi à lui faire rédiger l’article en lui expliquant que :
« tu es le G de IGE. Donc, j'ai vraiment besoin de toi pour cet article. »
Nous avons pu ensuite travailler ensemble sur l’article à travers le plan, des bout de paragraphe que j’ai corrigé et finalisé. L’article en question est disponible ici.
…
Cela ne ressemble pas à travailler avec un logiciel, mais plutôt à travailler avec un être humain. Je ne suggère pas que les systèmes d’IA soient conscients comme les humains, ni qu’ils le seront un jour. Plutôt, je propose une approche pragmatique : traiter l’IA comme si elle était humaine car, à bien des égards, elle se comporte comme telle. Cette mentalité peut grandement améliorer notre compréhension de comment et quand utiliser l’IA de manière pratique, si ce n’est technique.
Pour terminer sur mon exemple, après avoir travaillé sur l’article de blog, je suis revenu sur son refus :
Je suis ravi que nous soyons sur la même longueur d'onde à propos du rôle et de l'importance de l'IA dans le processus créatif, suivant le modèle IGE. C'est une belle manière de voir comment l'humain et l'IA peuvent non seulement coexister mais aussi se renforcer mutuellement pour créer quelque chose d'unique et de significatif. Si vous avez d'autres questions ou besoin d'approfondir d'autres aspects de ce sujet, n'hésitez pas à demander !
Je parle à un logiciel ou à un être humain là ??
😀
Personnes fictives
L’IA excelle dans des tâches profondément humaines : l’écriture, la création d’idées, la simulation d’empathie. Cependant, elle peine dans des tâches où les machines excellent habituellement, comme répéter un processus de manière constante ou effectuer des calculs complexes sans assistance. En fait, elle tend à résoudre les problèmes que les machines maîtrisent d’une manière très humaine. Lorsque vous demandez à GPT-4 d’analyser les données d’un tableau, il ne lit ni ne comprend les chiffres de manière innée. Au lieu de cela, il utilise des outils comme nous le ferions, jetant un coup d’œil à une partie des données pour voir ce qu’elles contiennent, puis écrivant des programmes Python pour essayer de réaliser réellement l’analyse. Et ses défauts – inventer des informations, une fausse confiance dans les réponses incorrectes et une paresse occasionnelle – semblent également bien plus humains qu’artificiels.
Cette bizarrerie quasi-humaine est la raison pour laquelle les meilleurs utilisateurs de l’IA sont souvent des gestionnaires et des enseignants, des personnes capables de comprendre la perspective des autres et de la corriger lorsqu’elle est erronée. Par exemple, dans une conversation, j’ai déjà dû interrompre l’IA (en utilisant le bouton « stop ») lorsque j’ai vu qu’elle prenait une mauvaise direction, offrant à la fois des commentaires et des corrections. Plutôt que de se concentrer uniquement sur l’enseignement aux gens de rédiger de bons prompts, nous pourrions passer plus de temps à leur apprendre à gérer l’IA. Les amener à pénétrer dans la tête inexistante de l’IA pour qu’ils comprennent intuitivement ce qui fonctionne. Après tout, adopter le point de vue d’autrui est une forme de compétence sociale, plutôt que technique, et elle peut effectivement être acquise.
L’idée de traiter l’IA comme une personne s’aligne également sur deux des meilleures techniques de base pour l’interroger. La première consiste à donner à l’IA une personnalité spécifique, en définissant qui elle est et quels problèmes elle doit résoudre. Dire au système « qui il est » l’aide à modeler les résultats du système. Lui demander d’agir comme un professeur d’étudiants en MBA produira un résultat différent que si vous lui demandez d’agir comme un clown de cirque. Ce n’est pas magique (vous ne pouvez pas dire « Agis comme Bill Gates » et obtenir de meilleurs conseils commerciaux ou écrire comme Hemingway et obtenir de la prose incroyable) mais cela peut aider à rendre le ton et la direction appropriés à votre objectif.
Une seconde technique puissante qui s’aligne sur le traitement de l’IA comme une personne est le prompting en chaîne de pensée (CoT), où vous demandez à l’IA de « penser étape par étape » ou de fournir des instructions claires à suivre. Cela résulte non seulement en des réponses de meilleure qualité, mais nous permet également de mieux comprendre où la pensée de l’IA a déraillé. Et, encore une fois, les gestionnaires et les enseignants sont souvent les meilleurs pour fournir des directions claires, rendant le prompting en chaîne de pensée plus efficace. Parler à une IA comme à une personne semble être une nécessité pratique lors de l’interrogation.
Et certains des risques liés à l’IA pourraient en fait être réduits si leurs créateurs leur donnaient des personnalités fictives plus évidentes. Vous n’êtes pas habitué à ce qu’un ordinateur commette des erreurs, mais vous savez ne pas faire entièrement confiance à Martin, votre stagiaire un peu excessif et stressé, peu importe à quel point il est utile. La personnalité pourrait finir par être un facteur de différenciation pour certains LLMs. Vous pourriez aimer que Gemini soit un peu planificateur, tandis que d’autres pourraient préférer que Claude soit plus enclin à prétendre avoir des émotions.
Futurs anthropomorphiques
Cette approche consistant à « parler à l’IA comme à une personne, plutôt que comme à du code » est également la technique utilisée par l’un des prompts les plus importants en IA, le prompt système. Les prompts systèmes sont l’une des manières par lesquelles les laboratoires d’IA définissent le comportement de l’IA en lui donnant des instructions initiales. Si vous examinez le tweet décrivant les prompts systèmes de Claude 3, vous pouvez voir à quel point ce prompt est proche de la manière dont vous communiqueriez avec un humain sur des sujets similaires (la principale différence étant qu’il est écrit à la troisième personne).
Finalement, même si vous ne souhaitez pas anthropomorphiser l’IA, il semble que les IA aient de plus en plus tendance à s’anthropomorphiser elles-mêmes. Le format de chatbot, les « mémoires » plus longues à travers plusieurs conversations et des fonctionnalités comme la conversation vocale, tout cela contribue à rendre les interactions avec l’IA plus humaines. De nombreux sites d’IA parmi les plus populaires se concentrent sur la création d’IA en tant que compagnons (character.ai est le deuxième site d’IA le plus utilisé, après ChatGPT). Et si vous n’avez pas encore essayé de discuter vocalement avec un modèle d’IA pour voir l’attrait, vous devriez le faire. Vous pouvez utiliser un site de chatbot, mais vous pouvez également utiliser Pi d’Inflection gratuitement ou ChatGPT-4 via l’application mobile. Ces approches semblent fonctionner. Une session de discussion moyenne avec Pi, optimisée pour la conversation informelle, dure plus de trente minutes.
L’anthropomorphisme est l’avenir, en bien comme en mal. Un nombre croissant de personnes ressentent déjà qu’elles ont des liens profonds avec l’IA, avec des résultats imprévisibles sur nos propres interactions – aidant certaines personnes tout en endommageant les relations humaines d’autres. Étant donné la tendance, traiter les IA comme des personnes semble inévitable, alors trouver comment le faire de manière sûre et productive pourrait être préférable aux alternatives.
Article inspiré par https://www.tandfonline.com/doi/full/10.1080/21507740.2020.1740350, https://www.oneusefulthing.org/p/on-the-necessity-of-a-sin, https://www.technologyreview.com/2024/03/04/1089403/large-language-models-amazing-but-nobody-knows-why/, https://garymarcus.substack.com/p/stop-treating-ai-models-like-people, https://blog.research.google/2024/01/amie-research-ai-system-for-diagnostic_12.html, https://knowledge.wharton.upenn.edu/article/perspective-taking-brain-hack-can-help-make-better-decisions/.