Le nouveau modèle d’IA Zephyr-7B LLM affine celui de Mistral-7B et bat le Llama-2 70B

Le monde de l’intelligence artificielle a connu une nouvelle étape remarquable avec la sortie du nouveau modèle d’intelligence artificielle Zephyr-7B sur Hugging Face. Ce modèle innovant est le successeur affiné du modèle original Mistral 7B, et il est parvenu à surpasser des modèles plus importants de 70 milliards de paramètres, même en étant non censuré. L’entreprise a également dévoilé un rapport technique complet, offrant un aperçu détaillé du processus de formation du modèle. Essayez le Zephyr 7B Beta nouveau ici.

Optimisation directe des préférences (DPO)

Le modèle Zephyr-7B a été entraîné à l’aide d’une stratégie en trois étapes. La première étape consiste à effectuer un réglage fin supervisé distillé à l’aide de l’ensemble de données Ultra Chat. Cet ensemble de données, qui comprend 1,47 million de dialogues multiples générés par GPT 3.5 Turbo, a fait l’objet d’un processus rigoureux de nettoyage et de filtrage, ne laissant que 200 000 exemples. Le processus d’affinage supervisé distillé implique une dynamique de modèle enseignant-élève, avec un modèle plus important comme GPT 3.5 jouant le rôle de l’enseignant et Zephyr-7B celui de l’élève. Le modèle de l’enseignant génère une conversation basée sur une invite, qui est ensuite utilisée pour affiner le modèle de l’élève, Zephyr-7B.

Zephyr-7B bat Llama-2 70B

La deuxième étape de la stratégie de formation est le feedback de l’IA. Cette étape utilise l’ensemble de données Ultra Feedback, composé de 64 000 messages différents. Quatre modèles différents génèrent des réponses à chaque message, qui sont ensuite évaluées par GP4 en fonction de leur honnêteté et de leur utilité. Ce processus permet d’affiner les réponses du modèle, contribuant ainsi à sa performance globale.

La dernière étape de la stratégie de formation consiste à former un autre modèle à l’aide de l’ensemble de données créé avec un gagnant et un perdant. Cette étape renforce l’apprentissage du modèle Zephyr-7B, garantissant qu’il peut générer des réponses fiables et de haute qualité.

Les performances du modèle Zephyr-7B ont été impressionnantes, surpassant tous les autres modèles de 7 milliards et même des modèles plus importants comme les modèles Falcon 40 milliards et Llama 2 70 milliards. Toutefois, il est important de noter que les performances du modèle varient en fonction de la tâche spécifique. Par exemple, il est moins performant pour des tâches telles que le codage et les mathématiques. Les utilisateurs doivent donc choisir un modèle en fonction de leurs besoins spécifiques, car le modèle Zephyr-7B n’est pas forcément le mieux adapté à toutes les tâches.

Zephyr-7B LLM

Un aspect unique du modèle Zephyr-7B est sa nature non censurée. Bien qu’il soit non censuré dans une certaine mesure, il a été conçu pour déconseiller les activités illégales lorsqu’il y est invité, garantissant ainsi le respect des lignes directrices éthiques dans ses réponses. Cet aspect est crucial pour maintenir l’intégrité et l’utilisation responsable du modèle.

Le modèle Zephyr-7B peut être exécuté localement à l’aide de LMStudio ou de l’interface Web de génération de texte de l’UABA. Cela permet aux utilisateurs d’utiliser le modèle dans l’environnement de leur choix, améliorant ainsi son accessibilité et sa facilité d’utilisation.

Le modèle Zephyr-7B est un ajout important au paysage de l’IA. Sa stratégie de formation unique, ses performances impressionnantes et sa nature non censurée le distinguent des autres modèles. Cependant, ses performances varient en fonction de la tâche à accomplir, et les utilisateurs doivent donc choisir le modèle qui répond le mieux à leurs besoins spécifiques. Le serveur Discord actif de l’entreprise fournit une plateforme pour les discussions liées à l’IA générative, favorisant une communauté d’apprentissage et de croissance. Le domaine de l’IA continuant d’évoluer, il sera passionnant de voir ce que les futures itérations de modèles tels que Zephyr-7B apporteront.

Lire plus Guide:

Étiquettes :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *