Intel dołącza do grupy roboczej ds. bezpieczeństwa AI MLCommons

Intel czyni postępy w dziedzinie bezpieczeństwa sztucznej inteligencji (AI) i niedawno został członkiem-założycielem grupy roboczej AI Safety (AIS), organizowanej przez MLCommons. Jest to ważny kamień milowy w ciągłym zaangażowaniu firmy Intel w odpowiedzialne rozwijanie technologii sztucznej inteligencji.

Czym jest Grupa Robocza ds. Bezpieczeństwa AI MLCommons?

Ogólną misją Grupy Roboczej ds. Bezpieczeństwa AI MLCommons jest wspieranie społeczności w opracowywaniu testów bezpieczeństwa sztucznej inteligencji oraz ustanawianiu wzorców badawczych i branżowych w oparciu o te testy. Jego głównym celem jest kierowanie odpowiedzialnym rozwojem systemów AI, czerpiąc inspirację z tego, jak testy wydajności komputerów, takie jak MLPerf, pomogły wyznaczyć konkretne cele, a tym samym przyspieszyć postęp. Podobnie kryteria bezpieczeństwa opracowane przez tę grupę roboczą mają na celu zapewnienie jasnej definicji tego, co stanowi „bezpieczniejszy” system sztucznej inteligencji, co mogłoby znacznie przyspieszyć rozwój tych systemów.

Innym głównym celem testów porównawczych jest pomoc konsumentom i przedsiębiorstwom w podejmowaniu bardziej świadomych decyzji przy wyborze systemów sztucznej inteligencji do konkretnych przypadków użycia. Biorąc pod uwagę złożoność technologii sztucznej inteligencji, kryteria te stanowią cenne źródło oceny bezpieczeństwa i przydatności różnych systemów.

Ponadto kryteria te mają na celu informowanie o uzasadnionych technicznie i opartych na ryzyku regulacjach politycznych. Posunięcie to następuje w czasie, gdy rządy na całym świecie są coraz bardziej zainteresowane bezpieczeństwem systemów sztucznej inteligencji, kierując się opinią publiczną.

Aby osiągnąć te cele, grupa robocza określiła cztery kluczowe wyniki.

  1. Stanowi zestaw testów bezpieczeństwa i pracuje nad opracowaniem lepszych metodologii testowania.
  2. Definiuje punkty odniesienia dla konkretnych przypadków użycia sztucznej inteligencji, podsumowując wyniki testów w sposób łatwo zrozumiały dla osób niebędących specjalistami.
  3. Opracowują platformę społecznościową, która będzie służyć jako kompleksowe źródło testów bezpieczeństwa sztucznej inteligencji, od rejestrowania testów po przeglądanie wyników testów porównawczych.
  4. Pracują nad zdefiniowaniem zestawu zasad i polityk zarządzania w procesie obejmującym wielu interesariuszy, aby zapewnić, że decyzje są podejmowane wiarygodnie. Grupa organizuje cotygodniowe spotkania w celu omówienia tych tematów, a wszyscy zainteresowani mogą zarejestrować się za pośrednictwem adresu e-mail organizacji.

Grupa Robocza AIS

Grupa Robocza AIS to kolektyw ekspertów w dziedzinie sztucznej inteligencji z przemysłu i środowiska akademickiego. Jako członek założyciel Intel wniesie swoją rozległą wiedzę specjalistyczną do stworzenia platformy referencyjnej mierzącej czynniki bezpieczeństwa i ryzyka związane z narzędziami i modelami sztucznej inteligencji. Celem tego wspólnego wysiłku jest opracowanie standardowych kryteriów bezpieczeństwa dla sztucznej inteligencji w miarę dojrzewania testów, co stanowi kluczowy krok w zapewnieniu wdrożenia i bezpieczeństwa sztucznej inteligencji w społeczeństwie.

Jednym z głównych obszarów zainteresowania Grupy Roboczej AIS, a także Intela, jest odpowiedzialne szkolenie i wdrażanie modeli wielkojęzycznych (LLM). Te potężne narzędzia AI potrafią generować tekst przypominający ludzki, co czyni je nieocenionymi w wielu zastosowaniach, od tworzenia treści po obsługę klienta. Jednakże ich potencjalne niewłaściwe użycie stwarza znaczne ryzyko społeczne, co sprawia, że ​​opracowanie kryteriów bezpieczeństwa dla LLM jest priorytetem dla grupy roboczej.

Aby ułatwić ocenę ryzyka związanego z szybką ewolucją technologii AI, grupa robocza AIS opracowuje także system oceny bezpieczeństwa. System ten zapewni ustandaryzowany pomiar bezpieczeństwa różnych narzędzi i modeli sztucznej inteligencji, pomagając przemysłowi i środowisku akademickim w podejmowaniu świadomych decyzji dotyczących ich wykorzystania i wdrożenia.

„Intel angażuje się w odpowiedzialny rozwój sztucznej inteligencji i udostępnianie jej każdemu. Podchodzimy do kwestii bezpieczeństwa całościowo i opracowujemy innowacje w zakresie sprzętu i oprogramowania, aby umożliwić ekosystemowi budowanie godnej zaufania sztucznej inteligencji. Ze względu na wszechobecność i wszechobecność dużych modeli językowych niezbędna jest współpraca z całym ekosystemem w celu rozwiązania problemów związanych z bezpieczeństwem podczas opracowywania i wdrażania sztucznej inteligencji. W tym celu z przyjemnością przyłączamy się do branży w definiowaniu nowych procesów, metod i wzorców w celu ulepszenia sztucznej inteligencji na całym świecie” powiedział Deepak Patil, wiceprezes firmy Intel i dyrektor generalny ds. rozwiązań AI dla centrów danych.

Udział firmy Intel w grupie roboczej ds. AIS wpisuje się w jej zaangażowanie w odpowiedzialny rozwój technologii AI. Firma planuje podzielić się z grupą swoimi ustaleniami dotyczącymi bezpieczeństwa sztucznej inteligencji, najlepszymi praktykami i odpowiedzialnymi procesami rozwoju, takimi jak red-teaming i testowanie bezpieczeństwa. Taka wymiana wiedzy i doświadczenia powinna przyczynić się do ustanowienia wspólnego zestawu najlepszych praktyk i punktów odniesienia na potrzeby bezpiecznego opracowywania i wdrażania narzędzi sztucznej inteligencji.

Początkowym celem grupy roboczej AIS jest opracowanie kryteriów bezpieczeństwa dla LLM. Wysiłki te będą opierać się na badaniach przeprowadzonych przez Centrum Badań nad Podstawowymi Modelami Uniwersytetu Stanforda i jego Holistycznej Ocenie Modeli Językowych (HELM). Intel udostępni także Grupie Roboczej AIS swoje wewnętrzne procesy przeglądu stosowane do opracowywania modeli i narzędzi sztucznej inteligencji. Oczekuje się, że współpraca ta znacząco przyczyni się do ustanowienia wspólnego zestawu najlepszych praktyk i punktów odniesienia na potrzeby bezpiecznego opracowywania i wdrażania generatywnych narzędzi sztucznej inteligencji wykorzystujących LLM.

Zaangażowanie firmy Intel w Grupę Roboczą ds. Bezpieczeństwa AI MLCommons to ważny krok we właściwym kierunku, zapewniający odpowiedzialny rozwój i wdrażanie technologii AI. Wspólne wysiłki tej grupy niewątpliwie przyczynią się do opracowania solidnych kryteriów bezpieczeństwa dla narzędzi i modeli sztucznej inteligencji, ostatecznie ograniczając zagrożenia społeczne stwarzane przez te potężne technologie.

Źródło i autor obrazu: Intel

Czytaj więcej Przewodnik:

Tagi:

Zostaw komentarz

Twoj adres e-mail nie bedzie opublikowany. Wymagane pola są oznaczone *