Lors du Ray Summit 2023, un rassemblement d’ingénieurs logiciels, de praticiens de l’apprentissage automatique, de scientifiques des données, de développeurs, de professionnels MLOps et d’architectes, Aravind Srinivas, le fondateur et PDG de Perplexity AI, a partagé le parcours de la construction du premier moteur de réponse alimenté par LLM en seulement six mois avec moins de 4 millions de dollars. Le sommet, connu pour son accent sur la construction et le déploiement d’applications à grande échelle, en particulier dans le domaine de l’IA et de l’apprentissage automatique, a fourni la plateforme idéale pour que Srinivas se penche sur les défis d’ingénierie, les contraintes de ressources et les opportunités futures de Perplexity AI.
Perplexity AI, un assistant de recherche révolutionnaire, s’est taillé une place de choix en fournissant des réponses précises et utiles, étayées par des faits et des références. Son interface conversationnelle, sa connaissance du contexte et ses capacités de personnalisation en font un outil unique pour la recherche d’informations en ligne. L’objectif de Perplexity AI est de faire en sorte que l’expérience de la recherche ressemble à celle d’un assistant compétent qui comprend vos intérêts et vos préférences et qui peut vous expliquer les choses d’une manière qui vous convient.
Comment Perplexity AI a été développé
Le processus de Perplexity AI permet aux utilisateurs de poser des questions dans un langage naturel et courant, et l’IA s’efforce de comprendre l’intention qui sous-tend la requête. L’IA s’efforce de comprendre l’intention qui se cache derrière la requête. Elle peut engager une conversation en va-et-vient pour clarifier les besoins de l’utilisateur. Le moteur de réponse avancé traite les questions et les tâches, en tenant compte de l’ensemble de l’historique de la conversation pour le contexte. Il utilise ensuite des fonctionnalités de texte prédictif pour générer des réponses utiles, en choisissant la meilleure parmi plusieurs sources, et résume les résultats de manière concise.
Perplexity AI n’est pas seulement un moteur de recherche qui fournit des réponses directes aux questions des utilisateurs ; c’est bien plus que cela. Au départ, l’entreprise s’est concentrée sur le text to SQL et la recherche d’entreprise, avec le soutien d’investisseurs de premier plan tels qu’Elon Musk, Nat Friedman et Jeff Dean. En novembre, elle a lancé une recherche sur le web pour les amis et les Discord Bots, suivie par le lancement de Perplexity elle-même une semaine plus tard.
Depuis, l’entreprise travaille sans relâche à l’amélioration de ses capacités de recherche, notamment la possibilité de répondre à des requêtes complexes que les moteurs de recherche traditionnels comme Google ne sont pas en mesure de traiter. Elle a également lancé une fonction d' »assistant de recherche » qui peut répondre à des questions sur la base de fichiers et de documents téléchargés. Pour améliorer l’expérience des utilisateurs, Perplexity a introduit les « collections », une fonction qui permet aux utilisateurs de sauvegarder et d’organiser leurs recherches.
En termes de technologie, Perplexity a commencé à servir ses propres modèles, y compris les LLM, et a lancé un modèle affiné qui combine la vitesse de GPT-3.5 avec les capacités de GPT-4. Elle explore également l’utilisation de modèles open-source et dispose de sa propre pile d’inférence personnalisée pour améliorer la vitesse de recherche.
Au début du mois, Perplexity a annoncé pplx-api, conçu pour être l’un des moyens les plus rapides d’accéder aux modèles Mistral 7B, Llama2 13B, Code Llama 34B, Llama2 70B, replit-code-v1.5-3b. pplx-api permet aux développeurs d’intégrer facilement des LLM open-source de pointe dans leurs projets.
-
Facilité d’utilisation : les développeurs peuvent utiliser des modèles open-source de pointe prêts à l’emploi et démarrer en quelques minutes grâce à une API REST familière.
-
Inférence ultra rapide : notre système d’inférence bien conçu est efficace et atteint jusqu’à une latence 2,9 fois inférieure à celle de Replicate et une latence 3,1x inférieure à celle d’Anyscale.
-
Une infrastructure éprouvée : pplx-api a prouvé sa fiabilité, en desservant un trafic de niveau production à la fois dans son moteur de réponse Perplexity et dans le terrain de jeu Labs.
-
Un guichet unique pour les LLM open-source : l’équipe de Perplexity dit qu’elle se consacre à l’ajout de nouveaux modèles open-source au fur et à mesure qu’ils arrivent. Par exemple, l’équipe a ajouté les modèles Llama et Mistral quelques heures après le lancement , sans accès préalable.
À l’avenir, Perplexity prévoit d’améliorer encore ses capacités de recherche et de développer ses propres modèles afin de garder le contrôle sur la tarification et la personnalisation. Le parcours de Perplexity AI, tel que partagé par Aravind Srinivas lors du Ray Summit 2023, est un témoignage de la puissance de l’intelligence artificielle.
Lire plus Guide:
- Perplexity Lab pplx-api API pour les LLM open-source
- Comment utiliser le moteur de réponse Perplexity AI – Guide du débutant
- Test et comparaison de Perplexity AI et des résultats de recherche de Google
- Comment Perplexity AI redéfinit la découverte en ligne grâce à l’IA avancée
- Comparaison des résultats de recherche de Perplexity et de Google AI
- Comment utiliser Perplexity AI pour la recherche et l’analyse de données ?