Comment installer LLaMA 2 AI localement sur un Macbook


Comment installer Llama 2 AI localement sur un Macbook

Dans le monde en constante évolution de l’intelligence artificielle, les Modèle Lama 2 est devenu un outil prometteur pour une variété d’applications. Cependant, la question de savoir comment installer Llama 2 localement sur un MacBook alimenté par Apple Silicon a été un point de discorde pour beaucoup. Cet article vise à faire la lumière sur ce processus, en fournissant un guide complet pour ceux qui souhaitent exploiter la puissance de ce modèle d’IA sur leurs Apple MacBook.

Le modèle Llama 2, bien que compatible avec Linux et Windows, n’a pas été spécifiquement conçu pour Apple Silicon. Cela a laissé de nombreux utilisateurs de MacBook dans un dilemme. Cependant, il y a une doublure argentée. Un projet C++ open source a été développé, offrant une solution viable pour charger le modèle Llama sur votre MacBook.

Installez Llama 2 localement sur MacBook

Pour ceux qui souhaitent apprendre à installer Llama 2 localement, la vidéo ci-dessous a été créée par Alex Ziskind fournit un guide vidéo étape par étape. Vous guider tout au long du processus de clonage du référentiel, de téléchargement des modèles et de leur conversion pour une utilisation sur votre MacBook alimenté par le matériel Apple Silicon.

Vous pouvez télécharger Llama 2 depuis GitHub et Visage étreignant. Cette version inclut des pondérations de modèle et un code de départ pour des modèles de langage Llama pré-entraînés et affinés allant des paramètres 7B à 70B. Le référentiel GitHub est conçu comme un exemple minimal pour charger les modèles Llama 2 et exécuter l’inférence. Vous pouvez demander l’accès à la dernière version de Llama sur le Site Web Meta AI.

Une chose importante à noter est la taille de ces modèles. Le modèle à 7 milliards de paramètres, par exemple, atteint 13,48 gigaoctets. Cependant, ces modèles peuvent être quantifiés pour réduire leur taille, ce qui les rend plus gérables pour votre appareil.

Meta en dit plus sur la sortie de Llama 2 :

« Dans ce travail, nous développons et publions Llama 2, une collection de grands modèles de langage (LLM) pré-entraînés et affinés allant de 7 milliards à 70 milliards de paramètres. Nos LLM affinés, appelés Llama 2-Chat, sont optimisés pour les cas d’utilisation de dialogue. Nos modèles surpassent les modèles de chat open source sur la plupart des benchmarks que nous avons testés et, sur la base de nos évaluations humaines de l’utilité et de la sécurité, peuvent constituer un substitut approprié aux modèles de source fermée. Nous fournissons une description détaillée de notre approche pour affiner et améliorer la sécurité de Llama 2-Chat afin de permettre à la communauté de s’appuyer sur notre travail et de contribuer au développement responsable des LLM.

Qu’est-ce que LLaMA 2

LLaMA, qui signifie Méta IA du grand modèle de langage, est un modèle de langage sophistiqué développé et publié par Meta AI en février 2023, une entité de recherche leader en IA. Construits dans quatre configurations différentes basées sur des paramètres, les modèles ont été dimensionnés à 7 milliards, 13 milliards, 33 milliards et 65 milliards de paramètres respectivement.

L’itération de 13 milliards de paramètres du modèle LLaMA a démontré une efficacité exceptionnelle, surpassant le modèle beaucoup plus grand, GPT-3, qui avait 175 milliards de paramètres, dans la majorité des benchmarks de traitement du langage naturel (NLP). De même, il a été observé que le modèle de LLaMA le plus paramétré était sur un pied d’égalité avec les modèles haut de gamme tels que PaLM et Chinchilla.

Historiquement, l’accès à des modèles de langage volumineux (LLM) hautement performants comme celui-ci était généralement limité à des API limitées, si elles étaient accessibles du tout. Cependant, Meta a adopté une nouvelle approche en communiquant les poids du modèle LLaMA à la communauté de recherche au sens large. Cette action a été mise en œuvre sous une licence non commerciale, ouvrant aux chercheurs un accès sans précédent aux ressources.

Autres articles qui pourraient vous intéresser au sujet de LLaMA 2 :

Quelques mois plus tard, le 18 juillet 2023, Meta s’est associé à Microsoft pour annoncer l’avènement de LLaMA 2, signifiant la deuxième et une itération avancée du LLaMA original. Le modèle mis à jour, LLaMA 2, a été formé et publié en trois tailles de modèle, celles-ci étaient composées de 7 milliards, 13 milliards et 70 milliards de paramètres élevés. L’architecture du modèle a continué dans la veine de LLaMA 1, la différence notable étant l’utilisation de 40 % de données supplémentaires dans la formation des modèles fondamentaux de LLaMA 2.

Une fois que vous avez réussi à installer Llama 2 localement, vous pouvez commencer à utiliser les modèles pour l’inférence. Ces modèles peuvent générer du texte, bien que la précision et l’utilité du texte généré puissent varier. Il est important de se rappeler que le modèle Llama 2 est toujours en cours de développement et peut ne pas être entièrement équipé pour générer du code. En tant que tel, il est recommandé de l’utiliser plutôt pour des tâches créatives.

Bien que le processus d’installation locale de Llama 2 sur un MacBook alimenté par Apple Silicon puisse sembler intimidant, il est certainement réalisable. Avec l’aide du projet open-source C++ et du guide étape par étape, vous pouvez commencer à exploiter la puissance du modèle Llama 2 sur votre MacBook. N’oubliez pas d’être patient et créatif dans votre utilisation de cet outil d’IA prometteur. Pour plus d’informations sur l’accès au dernier modèle de langage plus grand LLaMA 2, passez à l’officiel Site Web Meta AI.

Classé sous :Guides





Dernières offres de gadgets geek

Divulgation: Certains de nos articles incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, Geeky Gadgets peut gagner une commission d’affiliation. En savoir plus sur notre politique de divulgation.





Vous pouvez lire l’article original (en Angais) sur le blogwww.geeky-gadgets.com