Des chercheurs de l'UC Berkeley présentent Gorilla : un LLaMA optimisé

Blog

MaisonMaison / Blog / Des chercheurs de l'UC Berkeley présentent Gorilla : un LLaMA optimisé

Jul 08, 2023

Des chercheurs de l'UC Berkeley présentent Gorilla : un LLaMA optimisé

Une percée récente dans le domaine de l'intelligence artificielle est la

Une percée récente dans le domaine de l'intelligence artificielle est l'introduction des grands modèles de langage (LLM). Ces modèles nous permettent de comprendre le langage de manière plus concise et, ainsi, de tirer le meilleur parti du traitement du langage naturel (TAL) et de la compréhension du langage naturel (NLU). Ces modèles fonctionnent bien sur toutes les autres tâches, y compris la synthèse de texte, la réponse aux questions, la génération de contenu, la traduction linguistique, etc. Ils comprennent des invites textuelles complexes, même des textes avec raisonnement et logique, et identifient des modèles et des relations entre ces données.

Bien que les modèles de langage aient montré des performances incroyables et se soient considérablement développés ces derniers temps en démontrant leur compétence dans une variété de tâches, il leur reste encore difficile d'utiliser les outils via des appels d'API de manière efficace. Même des LLM célèbres comme GPT-4 ont du mal à générer des arguments d'entrée précis et recommandent fréquemment des appels d'API inappropriés. Pour résoudre ce problème, les chercheurs de Berkeley et de Microsoft Research ont proposé Gorilla, un modèle basé sur LLaMA affiné qui bat GPT-4 en termes de production d'appels API. Gorilla aide à choisir l'API appropriée, améliorant la capacité des LLM à travailler avec des outils externes pour mener à bien des activités particulières.

L'équipe de chercheurs a également créé un ensemble de données APIBench, composé d'un corpus important d'API avec des fonctionnalités qui se chevauchent. L'ensemble de données a été créé en collectant des hubs de modèles publics tels que TorchHub, TensorHub et HuggingFace pour leurs API ML. Chaque demande d'API de TorchHub et TensorHub est incluse pour chaque API, et les 20 meilleurs modèles de HuggingFace pour chaque catégorie de tâche sont choisis. De plus, ils produisent dix invites de requête utilisateur fictives pour chaque API en utilisant la méthode d'auto-instruction.

À l'aide de cet ensemble de données APIBench et de la récupération de documents, les chercheurs ont affiné Gorilla. Gorilla, le modèle à 7 milliards de paramètres surpasse GPT-4 en termes d'exactitude du fonctionnement de l'API et réduit les erreurs hallucinatoires. L'intégration efficace du récupérateur de documents avec Gorilla démontre la possibilité pour les LLM d'utiliser les outils avec plus de précision. Les capacités améliorées de génération d'appels API de Gorilla et sa capacité à modifier la documentation si nécessaire améliorent l'applicabilité et la fiabilité des résultats du modèle. Ce développement est important car il permet aux LLM de suivre une documentation régulièrement mise à jour, donnant aux utilisateurs des informations plus précises et à jour.

L'un des exemples partagés par les chercheurs montre comment Gorilla reconnaît correctement les tâches et offre des résultats d'API entièrement qualifiés. Les appels API générés par les modèles ont montré que GPT-4 produisait des requêtes API pour des modèles hypothétiques, ce qui démontre un manque de compréhension de la tâche. Claude a choisi la mauvaise bibliothèque, montrant un manque de capacité à reconnaître les bonnes ressources. Gorilla, en revanche, a correctement reconnu la tâche. Gorilla diffère donc de GPT-4 et Claude car sa création d'appel API est précise, démontrant à la fois ses performances améliorées et sa compréhension des tâches.

En conclusion, Gorilla est un ajout majeur à la liste des modèles de langage, car il résout même le problème de l'écriture des appels d'API. Ses capacités permettent de réduire les problèmes liés aux hallucinations et à la fiabilité.

VérifiezPapier, Lien Github, etPage du projet.N'oubliez pas de rejoindrenotre sous-reddit 22k+ ML,Chaîne discorde, etCourriel , où nous partageons les dernières nouvelles sur la recherche en IA, des projets d'IA sympas, et plus encore. Si vous avez des questions concernant l'article ci-dessus ou si nous avons manqué quelque chose, n'hésitez pas à nous envoyer un courriel à[email protected]

🚀 Découvrez les outils d'intelligence artificielle de 100 dans AI Tools Club

Tanya Malhotra est une dernière année de premier cycle de l'Université d'études pétrolières et énergétiques de Dehradun, poursuivant un BTech en génie informatique avec une spécialisation en intelligence artificielle et en apprentissage automatique. Elle est une passionnée de science des données avec une bonne pensée analytique et critique, avec un intérêt ardent pour acquérir de nouvelles compétences, diriger des groupes et gérer le travail de manière organisée.

Papier, page de projet de lien Github. notre 22k+ ML SubReddit Discord Channel Email Newsletter [email protected] 🚀 Découvrez 100's AI Tools dans AI Tools Club