Alors que la guerre de l’intelligence artificielle (IA) est lancée avec Google et Microsoft, Meta ne veut pas être oublié. Le groupe californien a dévoilé vendredi une IA de type ChatGPT appelée LLaMA. Pour le moment, elle est uniquement ouverte aux chercheurs, ayant pour objectif de les aider « à progresser dans leurs travaux » sur ce sujet, indique la branche dédiée à l’IA de la société dans un billet de blog.
Contrairement à d’autres, ils n’ont pas besoin d’infrastructures très importantes pour étudier ce système. Les ressources nécessaires pour entraîner et mieux faire fonctionner les modèles de langage constituent en effet un obstacle pour la recherche.
Contrairement à d’autres, ils n’ont pas besoin d’infrastructures très importantes pour étudier ce système. Les ressources nécessaires pour entraîner et mieux faire fonctionner les modèles de langage constituent en effet un obstacle pour la recherche.
Ce manque de ressources « a limité la capacité des chercheurs à comprendre comment et pourquoi ces grands modèles de langage fonctionnent, entravant les efforts visant à améliorer leur robustesse et à atténuer les problèmes connus, tels que les biais, la toxicité et la possibilité de générer de fausses informations », explique Meta AI.
Limiter les problèmes des grands modèles de langage
La firme a elle-même été confrontée à ces problèmes avec les systèmes BlenderBot3 et Galactica. Conçu pour aider les scientifiques à trouver rapidement des informations utiles à leurs recherches, ce dernier a été débranché deux jours après avoir été lancé sur le web à cause de propos erronés et racistes. Le chatbot du moteur de recherche Bing de Microsoft – en cours de test – a aussi rapidement posé problème, en insultant des utilisateurs par exemple.
« Des travaux de recherche supplémentaires sont nécessaires pour traiter les risques de biais, de commentaires toxiques et d’hallucinations dans les grands modèles de langage. Comme d’autres modèles, LLaMA partage ces difficultés », prévient Meta AI. « En partageant le code de LLaMA, d’autres chercheurs peuvent plus facilement tester de nouvelles approches pour limiter ou éliminer ces problèmes dans les grands modèles de langage », a ajouté la branche de la firme dédiée à l’IA. Elle affirme que son modèle a été conçu pour être polyvalent et qu’il peut être appliqué à de nombreux cas d’utilisation différents. Elle a par ailleurs développé plusieurs versions de LLaMA, qui nécessitent plus ou moins de ressources.
Afin de prévenir les abus, Meta AI publie son modèle « sous une licence non commerciale axée sur les cas d’utilisation de la recherche ». La société indique qu’elle accordera l’accès à celui-ci au cas par cas aux divers chercheurs.
Rédigé par Kesso Diallo, repris par la Fondation Tamkine
#Tamkine_ensemble_nous_reussirons
« Des travaux de recherche supplémentaires sont nécessaires pour traiter les risques de biais, de commentaires toxiques et d’hallucinations dans les grands modèles de langage. Comme d’autres modèles, LLaMA partage ces difficultés », prévient Meta AI. « En partageant le code de LLaMA, d’autres chercheurs peuvent plus facilement tester de nouvelles approches pour limiter ou éliminer ces problèmes dans les grands modèles de langage », a ajouté la branche de la firme dédiée à l’IA. Elle affirme que son modèle a été conçu pour être polyvalent et qu’il peut être appliqué à de nombreux cas d’utilisation différents. Elle a par ailleurs développé plusieurs versions de LLaMA, qui nécessitent plus ou moins de ressources.
Afin de prévenir les abus, Meta AI publie son modèle « sous une licence non commerciale axée sur les cas d’utilisation de la recherche ». La société indique qu’elle accordera l’accès à celui-ci au cas par cas aux divers chercheurs.
Rédigé par Kesso Diallo, repris par la Fondation Tamkine
#Tamkine_ensemble_nous_reussirons