Intel rejoint le groupe de travail MLCommons sur la sécurité de l’IA

Intel progresse dans le domaine de la sécurité de l’intelligence artificielle (IA) et est récemment devenu un membre fondateur du groupe de travail AI Safety (AIS), organisé par MLCommons. Il s’agit d’une étape importante dans l’engagement continu d’Intel à faire progresser de manière responsable les technologies de l’IA.

Qu’est-ce que le groupe de travail MLCommons AI Safety ?

Le groupe de travail MLCommons sur la sécurité de l’IA a pour mission globale de soutenir la communauté dans le développement de tests de sécurité de l’IA et d’établir des recherches et des normes industrielles de référence basées sur ces tests. Son objectif premier est de guider le développement responsable des systèmes d’IA, en s’inspirant de la manière dont les tests de performance informatique tels que MLPerf ont permis de fixer des objectifs concrets et ainsi d’accélérer les progrès. Dans le même ordre d’idées, les critères de sécurité développés par ce groupe de travail visent à fournir une définition claire de ce qui constitue un système d’IA « plus sûr », ce qui pourrait accélérer de manière significative le développement de ces systèmes.

Un autre objectif majeur des critères de référence est d’aider les consommateurs et les entreprises à prendre des décisions plus éclairées lorsqu’ils choisissent des systèmes d’IA pour des cas d’utilisation spécifiques. Compte tenu de la complexité des technologies de l’IA, ces critères constituent une ressource précieuse pour évaluer la sécurité et l’adéquation de différents systèmes.

En outre, ces critères sont conçus pour éclairer les réglementations politiques techniquement solides et fondées sur les risques. Cette démarche intervient à un moment où les gouvernements du monde entier s’intéressent de plus en plus à la sécurité des systèmes d’IA, sous l’impulsion de l’opinion publique.

Pour atteindre ces objectifs, le groupe de travail a défini quatre résultats clés.

  1. Il constitue un ensemble de tests de sécurité et travaille à l’élaboration de meilleures méthodologies d’essai.
  2. Il définit des critères de référence pour des cas d’utilisation spécifiques de l’IA en résumant les résultats des tests d’une manière facilement compréhensible pour les non-spécialistes.
  3. Ils développent une plateforme communautaire qui servira de ressource complète pour les tests de sécurité de l’IA, depuis l’enregistrement des tests jusqu’à la consultation des résultats des tests de référence.
  4. Ils travaillent à la définition d’un ensemble de principes et de politiques de gouvernance par le biais d’un processus multipartite afin de garantir que les décisions sont prises de manière fiable. Le groupe organise des réunions hebdomadaires pour discuter de ces sujets et toute personne intéressée peut s’inscrire via l’adresse électronique de l’organisation.

Groupe de travail AIS

Le groupe de travail AIS est un collectif d’experts en intelligence artificielle issus de l’industrie et du monde universitaire. En tant que membre fondateur, Intel s’apprête à apporter sa vaste expertise à la création d’une plateforme de référence qui mesure les facteurs de sécurité et de risque associés aux outils et aux modèles d’IA. Cet effort de collaboration vise à développer des critères de sécurité standard pour l’IA au fur et à mesure de la maturation des tests, une étape cruciale pour assurer le déploiement et la sécurité de l’IA dans la société.

L’un des principaux domaines d’intérêt du groupe de travail AIS, et en fait d’Intel, est la formation et le déploiement responsables de grands modèles de langage (LLM). Ces puissants outils d’IA ont la capacité de générer des textes semblables à ceux des humains, ce qui les rend inestimables dans toute une série d’applications, de la création de contenu au service à la clientèle. Cependant, leur utilisation abusive potentielle pose des risques sociétaux importants, ce qui fait de l’élaboration de critères de sécurité pour les LLM une priorité pour le groupe de travail.

Pour faciliter l’évaluation des risques liés à l’évolution rapide des technologies de l’IA, le groupe de travail AIS élabore également un système d’évaluation de la sécurité. Ce système fournira une mesure standardisée de la sécurité des différents outils et modèles d’IA, aidant l’industrie et le monde universitaire à prendre des décisions éclairées quant à leur utilisation et leur déploiement.

« Intel s’engage à faire progresser l’IA de manière responsable et à la rendre accessible à tous. Nous abordons les questions de sécurité de manière holistique et développons des innovations à travers le matériel et les logiciels pour permettre à l’écosystème de construire une IA digne de confiance. En raison de l’ubiquité et de l’omniprésence des grands modèles de langage, il est essentiel de travailler avec l’ensemble de l’écosystème pour résoudre les problèmes de sécurité dans le développement et le déploiement de l’IA. À cette fin, nous sommes heureux de nous joindre à l’industrie pour définir les nouveaux processus, méthodes et critères de référence pour améliorer l’IA partout », a déclaré Deepak Patil, vice-président d’entreprise d’Intel et directeur général des solutions d’IA pour les centres de données.

La participation d’Intel au groupe de travail AIS s’inscrit dans le cadre de son engagement en faveur d’un développement responsable des technologies d’IA. L’entreprise prévoit de partager avec le groupe ses conclusions en matière de sécurité de l’IA, ses meilleures pratiques et ses processus de développement responsables, tels que le red-teaming et les tests de sécurité. Ce partage de connaissances et d’expertise devrait contribuer à l’établissement d’un ensemble commun de meilleures pratiques et de critères de référence pour le développement et le déploiement en toute sécurité d’outils d’IA.

L’objectif initial du groupe de travail AIS est de développer des critères de sécurité pour les LLM. Cet effort s’appuiera sur les recherches du Center for Research on Foundation Models de l’université de Stanford et sur son Holistic Evaluation of Language Models (HELM). Intel partagera également avec le groupe de travail AIS ses processus d’examen internes utilisés pour développer des modèles et des outils d’IA. Cette collaboration devrait contribuer de manière significative à l’établissement d’un ensemble commun de meilleures pratiques et de critères de référence pour le développement et le déploiement en toute sécurité d’outils d’IA générative exploitant les LLM.

L’implication d’Intel dans le groupe de travail MLCommons AI Safety est un pas important dans la bonne direction pour assurer le développement et le déploiement responsables des technologies de l’IA. Les efforts de collaboration de ce groupe contribueront sans aucun doute à l’élaboration de critères de sécurité robustes pour les outils et modèles d’IA, ce qui permettra en fin de compte d’atténuer les risques sociétaux posés par ces puissantes technologies.

Source et crédit d’image : Intel

Lire plus Guide:

Étiquettes :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *