Intel se une al grupo de trabajo de seguridad de IA de MLCommons

Intel está avanzando en el campo de la seguridad de la inteligencia artificial (IA) y recientemente se convirtió en miembro fundador del Grupo de Trabajo de Seguridad de la IA (AIS), organizado por MLCommons. Este es un hito importante en el compromiso continuo de Intel con el avance responsable de las tecnologías de IA.

¿Qué es el Grupo de trabajo de seguridad de IA de MLCommons?

El Grupo de Trabajo de Seguridad de IA de MLCommons tiene la misión general de apoyar a la comunidad en el desarrollo de pruebas de seguridad de IA y establecer puntos de referencia de investigación y de la industria basados ​​en estas pruebas. Su objetivo principal es guiar el desarrollo responsable de sistemas de inteligencia artificial, inspirándose en cómo las pruebas de rendimiento de las computadoras, como MLPerf, han ayudado a establecer objetivos concretos y así acelerar el progreso. En la misma línea, los criterios de seguridad desarrollados por este grupo de trabajo tienen como objetivo proporcionar una definición clara de lo que constituye un sistema de IA “más seguro”, lo que podría acelerar significativamente el desarrollo de estos sistemas.

Otro objetivo importante de los puntos de referencia es ayudar a los consumidores y a las empresas a tomar decisiones más informadas al elegir sistemas de IA para casos de uso específicos. Dada la complejidad de las tecnologías de IA, estos criterios proporcionan un recurso valioso para evaluar la seguridad y la idoneidad de diferentes sistemas.

Además, estos criterios están diseñados para informar regulaciones de políticas técnicamente sólidas y basadas en riesgos. Esta medida llega en un momento en que los gobiernos de todo el mundo están cada vez más interesados ​​en la seguridad de los sistemas de IA, impulsados ​​por la opinión pública.

Para lograr estos objetivos, el grupo de trabajo definió cuatro resultados clave.

  1. Constituye un conjunto de pruebas de seguridad y trabaja para desarrollar mejores metodologías de prueba.
  2. Define puntos de referencia para casos de uso de IA específicos al resumir los resultados de las pruebas de una manera que sea fácilmente comprensible para los no especialistas.
  3. Están desarrollando una plataforma comunitaria que servirá como un recurso integral para las pruebas de seguridad de IA, desde registrar pruebas hasta ver los resultados de las pruebas comparativas.
  4. Trabajan para definir un conjunto de principios y políticas de gobernanza a través de un proceso de múltiples partes interesadas para garantizar que las decisiones se tomen de manera confiable. El grupo realiza reuniones semanales para discutir estos temas y cualquier interesado puede inscribirse a través de la dirección de correo electrónico de la organización.

Grupo de trabajo AIS

El Grupo de Trabajo AIS es un colectivo de expertos en inteligencia artificial de la industria y el mundo académico. Como miembro fundador, Intel aportará su amplia experiencia a la creación de una plataforma de referencia que mida la seguridad y los factores de riesgo asociados con las herramientas y modelos de IA. Este esfuerzo de colaboración tiene como objetivo desarrollar criterios de seguridad estándar para la IA a medida que las pruebas maduren, un paso crucial para garantizar el despliegue y la seguridad de la IA en la sociedad.

Una de las principales áreas de enfoque del Grupo de Trabajo AIS, y de hecho de Intel, es la capacitación e implementación responsable de Modelos de Lenguaje Grande (LLM). Estas poderosas herramientas de inteligencia artificial tienen la capacidad de generar texto similar a un humano, lo que las hace invaluables en una variedad de aplicaciones, desde la creación de contenido hasta el servicio al cliente. Sin embargo, su posible uso indebido plantea importantes riesgos sociales, lo que hace que el desarrollo de criterios de seguridad para los LLM sea una prioridad para el grupo de trabajo.

Para facilitar la evaluación de los riesgos relacionados con la rápida evolución de las tecnologías de IA, el grupo de trabajo AIS también está desarrollando un sistema de evaluación de la seguridad. Este sistema proporcionará una medición estandarizada de la seguridad de diferentes herramientas y modelos de IA, ayudando a la industria y al mundo académico a tomar decisiones informadas sobre su uso e implementación.

“Intel está comprometida con el avance responsable de la IA y hacerla accesible para todos. Abordamos los problemas de seguridad de manera integral y desarrollamos innovaciones en hardware y software para permitir que el ecosistema cree una IA confiable. Debido a la ubicuidad y omnipresencia de grandes modelos de lenguaje, es esencial trabajar con todo el ecosistema para abordar los problemas de seguridad en el desarrollo y la implementación de la IA. Con este fin, nos complace unirnos a la industria para definir nuevos procesos, métodos y puntos de referencia para mejorar la IA en todas partes”. dijo Deepak Patil, vicepresidente corporativo de Intel y director general de soluciones de inteligencia artificial para centros de datos.

La participación de Intel en el grupo de trabajo AIS es parte de su compromiso con el desarrollo responsable de las tecnologías de IA. La compañía planea compartir con el grupo sus hallazgos de seguridad de IA, sus mejores prácticas y procesos de desarrollo responsable, como el equipo rojo y las pruebas de seguridad. Este intercambio de conocimientos y experiencia debería contribuir al establecimiento de un conjunto común de mejores prácticas y puntos de referencia para el desarrollo y despliegue seguros de herramientas de IA.

El objetivo inicial del grupo de trabajo AIS es desarrollar criterios de seguridad para los LLM. Este esfuerzo se basará en investigaciones del Centro de Investigación sobre Modelos Fundamentales y su Evaluación Holística de Modelos del Lenguaje (HELM) de la Universidad de Stanford. Intel también compartirá con el Grupo de Trabajo AIS sus procesos de revisión interna utilizados para desarrollar modelos y herramientas de IA. Se espera que esta colaboración contribuya significativamente a establecer un conjunto común de mejores prácticas y puntos de referencia para el desarrollo y la implementación seguros de herramientas de IA generativa que aprovechan los LLM.

La participación de Intel en el Grupo de Trabajo de Seguridad de IA de MLCommons es un paso importante en la dirección correcta para garantizar el desarrollo y la implementación responsable de tecnologías de IA. Los esfuerzos de colaboración de este grupo sin duda contribuirán al desarrollo de criterios de seguridad sólidos para herramientas y modelos de IA, mitigando en última instancia los riesgos sociales que plantean estas poderosas tecnologías.

Fuente y crédito de imagen: Intel

Leer más Guía:

Etiquetas:

Dejar un comentario

Su dirección de correo electrónico no será publicada. Los campos necesarios están marcados con *