L’OpenAI a récemment annoncé le lancement d’un important programme de subventions de 10 millions de dollars, connu sous le nom de Superalignment Fast Grants. Cette initiative ambitieuse est conçue pour soutenir et stimuler la recherche technique axée sur l’alignement et la sécurité des systèmes d’IA surhumains. Cette initiative importante de l’OpenAI souligne l’inquiétude et l’intérêt croissants pour le développement et le contrôle des systèmes d’IA surhumains, ainsi que leurs risques et avantages potentiels.
« 10 millions de dollars de subventions pour soutenir la recherche technique sur l’alignement de l’AGI. Nous aurons besoin de nouvelles percées pour diriger et contrôler des systèmes d’IA beaucoup plus intelligents que nous. Il s’agit de l’un des problèmes techniques non résolus les plus importants de notre époque. Mais nous pensons qu’il s’agit d’un problème d’apprentissage automatique qui peut être résolu. Lesnouveaux chercheurs peuvent apporter d’énormes contributions », explique l’OpenAI. Les candidatures doivent être enregistrées avant le 18 décembre 2024.
Les systèmes d’IA surhumaine, comme leur nom l’indique, sont des IA qui surpassent l’intelligence humaine dans la plupart des tâches à valeur économique. L’OpenAI estime que l’avènement de la superintelligence pourrait être imminent, potentiellement au cours de la prochaine décennie. Bien que cette évolution puisse apporter d’énormes avantages, depuis les percées dans le domaine des soins de santé jusqu’à la résolution de problèmes mondiaux complexes, elle comporte également des risques importants. Le défi consiste à s’assurer que ces systèmes d’IA surhumains, et peut-être les robots humanoïdes récemment dévoilés, sont alignés sur les valeurs et les intérêts humains et qu’ils peuvent être contrôlés par les humains et bénéficier de leur confiance, une question qui a été au centre des préoccupations de la communauté de l’IA.
Des systèmes d’IA surhumains
Les techniques actuelles d’alignement de l’IA, telles que l’apprentissage par renforcement à partir du retour d’information humain (RLHF), ont joué un rôle déterminant dans la formation des systèmes d’IA. Toutefois, ces méthodes pourraient ne pas être suffisantes pour les futurs systèmes d’IA surhumains. Ces systèmes d’IA avancés sont susceptibles de présenter des comportements complexes et créatifs que le RLHF pourrait ne pas être en mesure d’exploiter ou de contrôler pleinement. Au fur et à mesure que les systèmes d’IA deviennent plus intelligents et autonomes, la tâche consistant à les aligner sur les valeurs humaines et à garantir leur sécurité devient de plus en plus ardue.
Reconnaissant l’inadéquation des techniques d’alignement actuelles et le besoin pressant de méthodes avancées, l’OpenAI lance le projet Superalignment. Ce projet vise à rassembler les meilleurs chercheurs et ingénieurs pour relever le défi de l’alignement et de la sécurité de l’IA surhumaine. L’organisation estime qu’il s’agit d’un problème qui peut être résolu et voit de nombreuses approches et opportunités prometteuses pour la communauté de recherche sur l’apprentissage automatique afin de réaliser des progrès significatifs.
Subventions rapides pour le superalignement
Pour soutenir davantage les efforts du projet Superalignment, OpenAI introduit le programme Superalignment Fast Grants de 10 millions de dollars en partenariat avec Eric Schmidt, l’ancien PDG de Google. Les subventions, allant de 100 000 à 2 millions de dollars, seront disponibles pour les laboratoires universitaires, les organisations à but non lucratif et les chercheurs individuels. En outre, une bourse OpenAI Superalignment d’une durée d’un an et d’un montant de 150 000 dollars sera proposée aux étudiants de troisième cycle, avec une allocation de 75 000 dollars et 75 000 dollars en calcul et en financement de la recherche.
Le programme de subventions rapides pour le superalignement et la bourse sont conçus pour attirer de nouvelles personnes dans le domaine et encourager un plus large éventail de perspectives et d’idées. Il est important de noter qu’aucune expérience préalable en matière d’alignement n’est requise pour postuler à ces subventions, ce qui ouvre la voie à des approches nouvelles et innovantes. Le processus de candidature est simple, avec un délai de réponse de quatre semaines après la clôture des candidatures, ce qui garantit un retour d’information rapide pour les candidats.
Le lancement par l’OpenAI de cet important programme de subventions représente une avancée significative dans le domaine de l’IA. Il souligne l’urgence et l’importance d’aligner les systèmes d’IA surhumains sur les valeurs humaines et de garantir leur sécurité. Avec le projet Superalignment et le programme Fast Grants, l’OpenAI ne se contente pas de relever ce défi, mais encourage également une communauté de recherche inclusive et diversifiée qui peut contribuer à cette tâche complexe et cruciale. Cette initiative témoigne de l’engagement d’OpenAI à faire en sorte que l’IA profite à l’ensemble de l’humanité.
Lire plus Guide:
- OpenAI commence à investir dans des entreprises de robotique
- DallE 3 débarque officiellement dans ChatGPT Plus et Enterprise
- Microsoft et Apple abandonnent leurs sièges au conseil d’administration de l’OpenAI
- OpenAI présente de nouveaux outils de recherche en IA pour l’authenticité des contenus
- OpenAI annonce des mises à jour de l’API d’affinage et du programme de modèles personnalisés
- OpenAI GPT Store ouvre ses portes aux utilisateurs Plus et Enterprise