Modèle d’IA de Microsoft disponible dans Azure AI – Phi-2, Orca 2, Llama 2

L’amélioration par Microsoft des capacités d’Azure AI grâce à son nouveau modèle AI en tant que service constitue une avancée significative dans le monde de l’intelligence artificielle. Microsoft a fait des progrès dans l’expansion de ses offres d’IA, y compris l’introduction de Meta’s Llama 2 fonctionnant dans les modèles en tant que service et la prévisualisation de GPT-4 Turbo avec Vision. Cette évolution renforce non seulement la polyvalence d’Azure AI, mais représente également un changement dans la manière dont le potentiel de l’IA est conceptualisé, en mettant davantage l’accent sur l’IA générative et le développement d’applications multimodales.

L’une des principales améliorations apportées à Azure AI est la disponibilité de Meta’s Llama 2 fonctionnant dans Models as a Service. Cet ajout fournit aux utilisateurs un outil puissant pour générer un contenu varié et imaginatif, ouvrant de nouvelles possibilités pour le développement d’applications d’IA. Le modèle Llama 2, réputé pour ses performances dans les tâches linguistiques, peut désormais être intégré de manière transparente dans diverses applications, améliorant ainsi leurs capacités et offrant une plus grande flexibilité aux développeurs.

Outre Llama 2, Microsoft a également dévoilé en avant-première GPT-4 Turbo with Vision, un modèle d’IA générative avancé. Ce modèle est conçu pour produire un contenu de haute qualité et faciliter le développement d’applications multimodales, en combinant la puissance du traitement du langage naturel avec la vision par ordinateur. L’inclusion de GPT-4 Turbo with Vision dans Azure AI témoigne de l’engagement de Microsoft à repousser les limites de la technologie de l’IA, en offrant aux utilisateurs la possibilité de créer des applications plus sophistiquées et plus polyvalentes.

Modèle Microsoft AI en tant que service

En plus de ces nouveaux modèles, Microsoft a également élargi le catalogue de modèles Azure AI avec l’ajout d’autres modèles tels que le Phi 2 Small Language Model (SLM). Cette démarche s’inscrit dans l’objectif de Microsoft de fournir une sélection complète de modèles d’IA à Azure AI, offrant ainsi aux clients plus de choix et de flexibilité pour répondre à leurs besoins spécifiques. Le catalogue élargi permet aux utilisateurs de choisir parmi un plus grand nombre de modèles, chacun ayant ses propres forces et capacités, améliorant ainsi la polyvalence d’Azure AI.

Pour aider les utilisateurs à sélectionner le modèle le plus adapté à leurs besoins, Azure AI Studio propose un sous-système d’analyse comparative et d’évaluation des modèles. Cette fonctionnalité permet aux utilisateurs d’examiner et de comparer les performances de divers modèles d’IA, en fournissant des mesures de qualité pour les modèles Azure OpenAI Service et les modèles Llama 2. En simplifiant le processus de sélection des modèles, Azure AI Studio permet aux utilisateurs d’exploiter plus facilement tout le potentiel d’Azure AI.

Regardez cette vidéo sur YouTube.

Voici une sélection des modèles d’IA disponibles dans Microsoft Azure AI model-as-a-service

Phi-2. est un petit modèle de langage (SLM) de Microsoft avec 2,7 milliards de paramètres. Phi-2 illustre la puissance des SLM et présente des améliorations spectaculaires en termes de capacités de raisonnement et de mesures de sécurité par rapport à Phi-1-5, tout en conservant sa taille relativement petite par rapport à d’autres transformateurs de l’industrie. Avec le bon réglage et la bonne personnalisation, ces SLM sont des outils incroyablement puissants pour des applications à la fois sur le nuage et à la périphérie.

DeciLM. Voici DeciLM-7B, un modèle de génération de texte basé uniquement sur un décodeur, avec un nombre impressionnant de 7,04 milliards de paramètres, sous licence Apache 2.0. DeciLM-7B est non seulement le modèle de base 7B le plus précis à ce jour, mais il surpasse également plusieurs modèles de sa catégorie.

DeciDiffussion. DeciDiffusion 1.0 est un modèle de génération texte-image basé sur la diffusion. Tout en conservant les éléments fondamentaux de l’architecture de la diffusion stable, tels que l’autoencodeur variationnel (VAE) et l’encodeur de texte pré-entraîné de CLIP, DeciDiffusion apporte des améliorations significatives. La principale innovation est le remplacement de U-Net par le plus efficace U-Net-NAS, une conception dont Deci a été le pionnier. Ce nouveau composant rationalise le modèle en réduisant le nombre de paramètres, ce qui se traduit par une efficacité de calcul supérieure.

DeciCoder. 1B est un modèle de complétion de code à 1 milliard de paramètres, entraîné sur les sous-ensembles Python, Java et JavaScript de l’ensemble de données d’entraînement Starcoder. Le modèle utilise Grouped Query Attention et dispose d’une fenêtre contextuelle de 2048 tokens. Il a été entraîné à l’aide d’un objectif d’entraînement Fill-in-the-Middle. L’architecture du modèle a été générée par la technologie propriétaire de Deci basée sur la recherche d’architecture neuronale, AutoNAC.

Orca 2. Comme Phi-2, Orca 2 de Microsoft explore les capacités des petits LM (de l’ordre de 10 milliards de paramètres ou moins). Orca 2 montre que des signaux et des méthodes d’entraînement améliorés peuvent permettre à des modèles de langage plus petits d’atteindre des capacités de raisonnement accrues, que l’on ne trouve généralement que dans des modèles de langage beaucoup plus grands. Orca 2 surpasse de manière significative les modèles de taille similaire (y compris le modèle Orca original) et atteint des niveaux de performance similaires ou supérieurs à des modèles 5 à 10 fois plus grands, tels qu’évalués sur des tâches complexes qui testent des capacités de raisonnement avancées dans des contextes de zéro-coup.

Mixtral 8x7b. Mixtral a une architecture similaire à celle de Mistral 7B, mais comprend 8 modèles experts en un seul à partir d’une technique appelée mélange d’experts (MoE). Mixtral décode à la vitesse d’un modèle à 12B paramètres denses bien qu’il contienne 4 fois plus de paramètres effectifs.

Ces améliorations apportées à Azure AI sont déjà mises à profit par le cabinet d’avocats international Dentons. Le cabinet utilise Azure AI pour mettre en œuvre les modèles Azure OpenAI Service, y compris GPT-4 et Meta’s Llama 2, dans son application d’IA générative. Grâce à ces modèles, Dentons est en mesure de résumer des contrats juridiques et d’extraire des parties essentielles de documents, ce qui lui permet de gagner beaucoup de temps. Cette application pratique des modèles d’IA Azure illustre leur potentiel à transformer divers secteurs en automatisant des tâches complexes et en améliorant l’efficacité.

 » Grâce à l’intégration d’un générateur de rapports de location, dans notre système fleetAI, développé avec le service Open AI de Microsoft Azure, nous avons révolutionné une tâche chronophage qui prenait auparavant 4 heures, en la réduisant à seulement 5 minutes « , a déclaré Sam Chen, responsable de l’adoption de l’IA juridique pour Dentons (UKIME). « Ce gain de temps considérable permet à nos professionnels du droit de se concentrer sur des tâches plus stratégiques, améliorant ainsi le service à la clientèle et soulignant notre dévouement à l’innovation. »

L’amélioration par Microsoft des capacités d’Azure AI grâce à de nouveaux modèles et services représente une avancée significative dans le domaine de l’IA. En introduisant de nouveaux modèles puissants tels que Meta’s Llama 2 et GPT-4 Turbo with Vision, et en élargissant le catalogue de modèles Azure AI, Microsoft offre aux utilisateurs plus de choix et de flexibilité, et ouvre la voie à des applications plus innovantes et imaginatives de l’IA.

Lire plus Guide:

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *