L’intelligence artificielle (IA) ne cesse d’évoluer. Elle est présente dans plusieurs domaines, à l’instar de la médecine, où elle peut aider au diagnostic en imagerie médicale ou de l’art, étant capable de générer une image à partir de descriptions textuelles. On la retrouve aussi dans les chatbots et les assistants vocaux qui nous permettent d’obtenir des réponses à nos questions au quotidien.
Malgré ces capacités, certaines aptitudes qu’on lui attribue font débat. Tel est le cas de la sensibilité, Blake Lemoine, ingénieur de Google ayant été licencié cet été, après avoir considéré un outil d’IA baptisé LaMDA comme une personne. En plus de l’entreprise qui a elle-même affirmé le contraire, plusieurs experts se sont prononcés sur le sujet. Alors, la sensibilité chez l’IA est-elle une réalité ou cela relève-t-il plutôt de la science-fiction ?
Malgré ces capacités, certaines aptitudes qu’on lui attribue font débat. Tel est le cas de la sensibilité, Blake Lemoine, ingénieur de Google ayant été licencié cet été, après avoir considéré un outil d’IA baptisé LaMDA comme une personne. En plus de l’entreprise qui a elle-même affirmé le contraire, plusieurs experts se sont prononcés sur le sujet. Alors, la sensibilité chez l’IA est-elle une réalité ou cela relève-t-il plutôt de la science-fiction ?
Une imitation de l’être humain
Actuellement, de nombreux experts se rangent du côté de Google, affirmant que l’IA n’est pas sensible. Pour eux, elle ne fait qu’imiter le comportement humain grâce aux données qui ont été utilisées pour l’entraîner. « Vous pouvez l’entraîner sur de grandes quantités de textes écrits, y compris des histoires avec des émotions et de la douleur, puis elle peut terminer cette histoire d’une manière qui semble originale. Non pas parce qu’elle comprend ces sentiments, mais parce qu’elle sait comment associer d’anciennes séquences pour en créer de nouvelles », avait déclaré Thomas Diettrich, professeur émérite d’informatique à l’Université d’État de l’Oregon au site Business Insider en juin.
« C’est lié à l’essence même de l’être humain. Les personnes peuvent s’attacher à plein de choses, et en l’occurrence, à des robots. » Katya Lainé , PDG de Talkr.ai
Autrement dit, les systèmes d’IA ont beau générer des réponses basées sur des données produites par les humains, ce n’est pas pour autant qu’ils sont doués de sensibilité. « Aujourd’hui, tout est une question d’imitation. Les IA ne sont pas à cette étape de conscience », indique Katya Lainé, cofondatrice et PDG de Talkr.ai, entreprise dont le but est d’aider les entreprises à améliorer leurs interactions avec le public par le biais d’assistants virtuels.
D’autres estiment par ailleurs qu’il n’est pas possible aujourd’hui de déterminer la sensibilité ou de distinguer un bot conçu pour imiter les interactions sociales d’un autre qui pourrait être capable de ressentir réellement ce qu’il exprime. « Vous ne pouvez pas faire la distinction entre ressentir et ne pas ressentir en fonction des séquences de mots qui sortent, car ce ne sont que des modèles qui ont été appris », avait ainsi expliqué un autre ingénieur de Google ayant travaillé avec LaMDA.
D’autres estiment par ailleurs qu’il n’est pas possible aujourd’hui de déterminer la sensibilité ou de distinguer un bot conçu pour imiter les interactions sociales d’un autre qui pourrait être capable de ressentir réellement ce qu’il exprime. « Vous ne pouvez pas faire la distinction entre ressentir et ne pas ressentir en fonction des séquences de mots qui sortent, car ce ne sont que des modèles qui ont été appris », avait ainsi expliqué un autre ingénieur de Google ayant travaillé avec LaMDA.
Une perception liée à la nature humaine
D’un autre côté, si des individus voient des IA et plus précisément des chatbots comme des personnes, ce n’est pas pour rien. D’après Katya Lainé, il est possible d’imiter la sensibilité en simulant les réponses qui vont être données. « On peut pré-paramétrer la manière dont un assistant va se comporter avec les personnes, il peut être empathique, imiter des émotions », indique-t-elle. À cela s’ajoute le fait que des individus ont tendance à s’attacher à des objets et même à ressentir des émotions pour eux. « C’est lié à l’essence même de l’être humain. Les personnes peuvent s’attacher à plein de choses, et en l’occurrence, à des robots, tout comme ils peuvent s’attacher à des animaux de compagnie ou à autre chose », fait savoir la PDG de Talkr.ai.
« Ce n’est pas pour demain. Aujourd’hui, une machine ne peut pas éprouver des émotions pour de vrai comme l’humain, qui est profondément conscient d’être content, triste ou d’avoir peur. »Katya Lainé, PDG de Talk.ai
Avec les progrès de l’IA, il est encore plus difficile pour certains de se détacher de ces systèmes et de ne pas les voir comme des personnes, car ils sont même capables d’imiter les défunts. Un jeune Canadien a par exemple pu parler avec un système imitant sa petite amie décédée pendant plusieurs mois après avoir fourni des données pour l’alimenter, a relaté le San Francisco Chronicle en 2021.
L’IA sensible, une réalité encore lointaine
Malgré les affirmations de Blake Lemoine, Katya Lainé – comme plusieurs autres experts – considère qu’on est loin de l’IA sensible. « Ce n’est pas pour demain. Aujourd’hui, une machine ne peut pas éprouver des émotions pour de vrai comme l’humain, qui est profondément conscient d’être content, triste ou d’avoir peur », assure la PDG de Talkr.ai.
Enfin, certains spécialistes estiment que d’autres préoccupations liées à l’IA sont plus immédiates et plus réelles, à l’image de Michael Wooldridge, professeur d’informatique à l’Université d’Oxford. Auprès du Guardian, il a récemment déclaré que ce sensationnalisme autour de la sensibilité détourne l’attention des problèmes de l’IA affectant actuellement la société, comme les biais. Des technologies qui y sont liées, telles que la reconnaissance faciale et les robots peuvent en effet se montrer racistes et sexistes à cause des données utilisées pour les entraîner, représentant un danger pour certains groupes minoritaires. Comme l’indique Katya Lainé, ces biais sont mis en avant par l’IA parce qu’ils existent dans la société. Apprenant de l’être humain, elle reproduit aussi ses défauts.
Rédigé par Kesso Diallo, repris et adapté par la Fondation Tamkine
#Tamkine_ensemble_nous_reussirons
Enfin, certains spécialistes estiment que d’autres préoccupations liées à l’IA sont plus immédiates et plus réelles, à l’image de Michael Wooldridge, professeur d’informatique à l’Université d’Oxford. Auprès du Guardian, il a récemment déclaré que ce sensationnalisme autour de la sensibilité détourne l’attention des problèmes de l’IA affectant actuellement la société, comme les biais. Des technologies qui y sont liées, telles que la reconnaissance faciale et les robots peuvent en effet se montrer racistes et sexistes à cause des données utilisées pour les entraîner, représentant un danger pour certains groupes minoritaires. Comme l’indique Katya Lainé, ces biais sont mis en avant par l’IA parce qu’ils existent dans la société. Apprenant de l’être humain, elle reproduit aussi ses défauts.
Rédigé par Kesso Diallo, repris et adapté par la Fondation Tamkine
#Tamkine_ensemble_nous_reussirons