Ollama 0.133 introduit une approche expérimentale du traitement parallèle, permettant aux développeurs et aux chercheurs d’optimiser leurs applications d’intelligence artificielle, en particulier dans les environnements à machine unique tels que les ordinateurs portables en silicone d’Apple. En exploitant les nouvelles variables d’environnement `OLLAMA_NUM_PARALLEL` et `OLLAMA_MAX_LOADED_MODELS`, les utilisateurs peuvent désormais gérer sans effort plusieurs modèles d’IA et traiter plusieurs requêtes simultanément. Cette amélioration permet d’atteindre de nouveaux niveaux d’efficacité et de capacité, transformant la façon dont la modélisation et le traitement de l’IA sont menés.
- Exploiter tout le potentiel des ressources informatiques
- Rationalisez les flux de travail et stimulez la productivité
- Bénéficiez de capacités multitâches transparentes
Nouveaux modèles d’IA pris en charge par Ollama
- Llama 3 : un nouveau modèle de Meta, et le LLM le plus performant à ce jour.
- Phi 3 Mini : un nouveau modèle ouvert de Microsoft, léger et à la pointe de la technologie, avec des paramètres de 3,8 milliards.
- Moondream moondream est un petit modèle de langage de vision conçu pour fonctionner efficacement sur les appareils périphériques.
- Llama 3 Gradient 1048K : un Llama 3 peaufiné par Gradient pour supporter une fenêtre contextuelle de 1M de jetons.
- Dolphin Llama 3 : Le modèle Dolphin non censuré, formé par Eric Hartford et basé sur Llama 3 avec une variété d’instruction, de conversation et de compétences de codage.
- Qwen 110B : Le premier modèle Qwen de plus de 100B paramètres avec des performances exceptionnelles dans les évaluations.
- Llama 3 Gradient : Une mise au point de Llama 3 qui prend en charge une fenêtre contextuelle de 1 million de tokens.
Fonctionnalité de concurence d’Ollama
Regardez cette vidéo sur YouTube.
Avec l’introduction de `OLLAMA_NUM_PARALLEL`, Ollama 0.133 amène la gestion des requêtes à de nouveaux sommets. En permettant au logiciel de gérer plusieurs requêtes simultanément, les temps de réponse sont significativement réduits, même si le volume de requêtes simultanées augmente. Cette avancée permet aux utilisateurs de travailler efficacement en multitâche et d’obtenir des performances optimales avec le logiciel.
De plus, le paramètre `OLLAMA_MAX_LOADED_MODELS` permet aux utilisateurs de charger plusieurs modèles simultanément, à condition qu’il y ait suffisamment de mémoire disponible. Cette fonction est un catalyseur pour le déploiement rapide et efficace de différents modèles, transformant ainsi la gestion de la mémoire au sein du logiciel.
- Des temps de réponse rapides comme l’éclair
- Gérer sans effort plusieurs modèles simultanément
- Optimiser l’utilisation de la mémoire pour améliorer les performances
Rendez-vous sur le guide officiel du serveur Ollama pour plus d’informations sur l’utilisation de ces nouvelles fonctionnalités.
Des fonctionnalités expérimentales pour préparer l’avenir
Ollama 0.133 embrasse l’innovation en incorporant des fonctionnalités expérimentales conçues pour tester et affiner des fonctionnalités innovantes. Bien que ces fonctionnalités jouent un rôle crucial dans l’élaboration du futur du logiciel, il est important de noter qu’elles peuvent avoir des limitations, telles qu’une utilisation non optimisée de la mémoire et des temps de réponse. Cependant, ces fonctionnalités expérimentales témoignent de l’engagement d’Ollama à repousser les limites du développement de l’IA.
Relever les défis et développer les capacités
Cette mise à jour s’attaque de front à des problèmes critiques, tels que les erreurs de terminaison de modèle et les difficultés de gestion de la mémoire, en particulier sur les Macs en silicium d’Apple. En s’attaquant à ces problèmes, Ollama 0.133 fournit une plateforme plus stable et plus fiable pour le développement et la recherche en IA.
De plus, l’introduction de nouveaux modèles augmente la polyvalence et les capacités de performance du logiciel, permettant aux utilisateurs d’explorer et d’exploiter une gamme plus large d’applications d’IA.
- Bénéficiez d’une stabilité et d’une fiabilité accrues
- Découvrez de nouvelles possibilités grâce à une sélection élargie de modèles
- Exploitez tout le potentiel des Mac en silicone d’Apple
Ouvrir la voie aux progrès futurs
Bien qu’Ollama 0.133 soit actuellement optimisé pour des configurations à une seule machine, l’avenir nous réserve des perspectives passionnantes pour de nouvelles améliorations. Les prochaines versions devraient repousser les limites des fonctionnalités de concurrence et potentiellement étendre le support à l’orchestration multi-machine. De plus, des plans sont en cours pour affiner la configuration des variables d’environnement, et éventuellement passer à un système de fichiers de configuration rationalisé, garantissant une expérience plus conviviale et plus efficace.
En continuant d’évoluer, Ollama ouvre la voie à une nouvelle ère de logiciels de modélisation et de traitement de l’IA. À chaque itération, Ollama vise à redéfinir les normes de l’industrie, en fournissant aux développeurs et aux chercheurs les outils dont ils ont besoin pour libérer tout le potentiel de l’intelligence artificielle. Téléchargez dès maintenant la dernière version d’Ollama 0.133 et bénéficiez d’une efficacité, d’une performance et d’une innovation inégalées lors de votre voyage dans l’IA grâce à cette mise à jour révolutionnaire.
Crédit vidéo : Source
Lire plus Guide:
- Comment installer Ollama localement pour faire fonctionner le lama 2, le lama code et d’autres modèles LLM ?
- Installer facilement des modèles d’IA personnalisés en local avec Ollama
- Exécuter Llama 2 Uncensored et d’autres LLM localement en utilisant Ollama pour la confidentialité et la sécurité
- Comment construire des applications d’IA avec Python et Ollama
- Ollama pour Windows est désormais disponible pour exécuter des LLM localement
- Comment créer des applications avec les agents d’intelligence artificielle Llama 3 – Guide du débutant