Meta dévoile son propre modèle de langage, LLaMA, pour aider les chercheurs à mieux comprendre et atténuer les risques liés à l'intelligence artificielle (IA) en générant du texte comme ChatGPT de la start-up OpenAI. Bien que l'outil ne soit actuellement accessible qu'aux chercheurs, Meta espère qu'en partageant la façon dont LLaMA a été élaboré, cela permettra aux chercheurs de tester de nouvelles approches pour éliminer les problèmes tels que les biais, la toxicité et la possibilité de générer des informations erronées.
Le lancement de ChatGPT en novembre 2022 a bousculé le monde de l'IA en montrant les capacités des modèles de langage à générer rapidement des textes sur des sujets donnés. Cependant, ces modèles présentent également des risques tels que des erreurs factuelles, des parti pris ou des violations de la protection des données. Par exemple, une version test du moteur de recherche Bing de Microsoft, développée en partenariat avec OpenAI, a émis des réponses incohérentes, y compris des menaces et le désir de voler les codes nucléaires.
Meta affirme que des travaux de recherche supplémentaires sont nécessaires pour résoudre ces risques. Cependant, il est difficile pour les chercheurs de comprendre comment et pourquoi ces modèles fonctionnent sans des ressources importantes, en particulier en termes de puissance de calcul, pour les entraîner et les faire fonctionner. C'est pourquoi Meta a développé plusieurs versions de LLaMA nécessitant plus ou moins de ressources.
En partageant la façon dont LLaMA a été élaboré, Meta espère que les chercheurs pourront tester de nouvelles approches pour limiter ou éliminer les problèmes liés aux modèles de langage. Alors qu'OpenAI et Microsoft limitent l'accès à leurs technologies IA, Meta a choisi de partager LLaMA avec la communauté de recherche pour aider à atténuer les risques de l'IA.
