Stability AI, une entreprise pionnière de l’IA générative basée au Royaume-Uni, a annoncé sa participation au prochain sommet sur la sécurité de l’IA. Organisé par le gouvernement britannique à Bletchley Park, ce sommet est une plateforme mondiale qui réunit des gouvernements internationaux, des entreprises d’IA de premier plan, des groupes de la société civile et des experts en recherche. L’objectif est de discuter des risques potentiels de l’IA et de la manière dont ils peuvent être atténués par une action coordonnée au niveau international.
Emad Mostaque, PDG, et Ben Brooks, responsable des politiques publiques, représenteront Stability AI au sommet. M. Mostaque s’est exprimé sur le potentiel de l’IA et sur la nécessité de prendre des mesures de sécurité. Il a souligné le rôle de la technologie ouverte dans la stimulation de l’innovation et de la croissance économique, tout en insistant sur la nécessité d’une vision et d’une compréhension communes des risques associés à l’IA.
Sommet sur la sécurité de l’IA 2o23
Stability AI est réputée pour son travail de développement d’une gamme de modèles d’IA générative dans divers domaines, notamment l’image, le langage, l’audio et la vidéo. Son modèle phare, Stable Diffusion, alimente jusqu’à 80 % de l’imagerie générée par l’IA. Les modèles de langage open-source de l’entreprise ont été téléchargés plus de six millions de fois, tandis que son modèle audio, Stable Audio, a été inscrit sur la liste des meilleures inventions de 2023 de TIME.
Dans le but de promouvoir la transparence et la concurrence dans le domaine de l’IA, Stability AI partage ces modèles ouvertement, bien qu’avec des garanties appropriées. Ce partage ouvert des modèles est considéré comme une étape importante pour garantir que les avantages de l’IA soient accessibles à un plus grand nombre d’utilisateurs, tout en promouvant une culture de l’innovation et de la concurrence dans le paysage de l’IA.
L’engagement de Stability AI en faveur de la sécurité de l’IA va au-delà de sa participation au sommet sur la sécurité de l’IA. L’entreprise a adhéré aux engagements volontaires de la Maison Blanche en matière d’IA et a participé à la première évaluation publique à grande échelle des modèles d’IA annoncée par la Maison Blanche. Cet engagement en faveur du développement et du déploiement sûrs de modèles ouverts témoigne de la volonté de Stability AI de veiller à ce que la technologie de l’IA soit développée et utilisée de manière responsable.
Le sommet sur la sécurité de l’IA 2023 devrait être un événement important dans le calendrier mondial de l’IA. Avec la participation d’entreprises d’IA de premier plan comme Stability AI, le sommet vise à favoriser une compréhension commune des risques liés à l’IA et à élaborer des stratégies pour atténuer ces risques par le biais d’une action coordonnée à l’échelle internationale.
La participation de Stability AI au sommet sur la sécurité de l’IA souligne l’engagement de l’entreprise en faveur de la sécurité et de la transparence de l’IA. En partageant ouvertement ses modèles et en promouvant des mesures de sécurité, Stability AI stimule non seulement l’innovation et la croissance économique, mais veille également à ce que la technologie de l’IA soit développée et utilisée de manière responsable. Le sommet sur la sécurité de l’IA constitue une plateforme cruciale pour les gouvernements internationaux, les entreprises d’IA, les groupes de la société civile et les experts en recherche qui se réunissent pour discuter de l’avenir de la sécurité de l’IA, Stability AI jouant un rôle clé dans ces discussions.
Lire plus Guide:
- Intel rejoint le groupe de travail MLCommons sur la sécurité de l’IA
- Arthur Mensch, fondateur de Mistral AI, parle de l’IA open source
- Le générateur d’images Stable Diffusion 3 AI est lancé par Stability AI
- La bulle de l’IA montre-t-elle déjà des signes de faiblesse et va-t-elle éclater ?
- Offres : Offre groupée de formation à la certification (ISC) SSCP et CISSP, avec une économie de 43%.
- Microsoft Copilot AI ajouté à Dynamics 365 Supply Chain Management