Новая модель LLM AI «Зефир-7Б» совершенствует «Мистраль-7Б» и превосходит «Ламу-2 70Б»

Мир искусственного интеллекта стал еще одной замечательной вехой с выпуском новой модели искусственного интеллекта Zephyr-7B на Hugging Face. Эта инновационная модель является усовершенствованным преемником оригинальной модели Mistral 7B, и ей удалось превзойти более крупные модели по 70 миллиардам параметров, даже без цензуры. Компания также представила подробный технический отчет, в котором представлен подробный обзор процесса обучения модели. Попробуйте новую бета-версию Zephyr 7B здесь.

Прямая оптимизация предпочтений (DPO)

Модель Zephyr-7B обучалась с использованием трехэтапной стратегии. Первым шагом является выполнение контролируемой точной настройки с использованием набора данных Ultra Chat. Этот набор данных, включающий 1,47 миллиона множественных диалогов, созданных с помощью GPT 3.5 Turbo, прошел тщательную очистку и фильтрацию, в результате чего осталось только 200 000 примеров. Упрощенный контролируемый процесс уточнения включает в себя динамику модели учитель-ученик, при этом более крупная модель, такая как GPT 3.5, играет роль учителя, а Zephyr-7B — ученика. Модель учителя генерирует диалог на основе подсказок, который затем используется для уточнения модели ученика Zephyr-7B.

Зефир-7Б побеждает Ламу-2 70Б

Вторым шагом в стратегии обучения является обратная связь от ИИ. На этом этапе используется набор данных Ultra Feedback, состоящий из 64 000 различных сообщений. Четыре разные модели генерируют ответы на каждое сообщение, которые затем оцениваются GP4 на основе их честности и полезности. Этот процесс помогает уточнить реакцию модели, тем самым способствуя повышению ее общей производительности.

Последним шагом стратегии обучения является обучение другой модели с использованием созданного набора данных с победителем и проигравшим. Этот шаг усиливает обучение модели Zephyr-7B, гарантируя, что она сможет генерировать надежные и качественные ответы.

Производительность модели Zephyr-7B была впечатляющей: она превосходила все другие 7-миллиардные модели и даже более крупные модели, такие как модели Falcon 40 миллиардов и Llama 2 70 миллиардов. Однако важно отметить, что производительность модели варьируется в зависимости от конкретной задачи. Например, он хуже справляется с такими задачами, как программирование и математика. Поэтому пользователям следует выбирать модель, исходя из их конкретных потребностей, поскольку модель Zephyr-7B может не подходить лучше всего для всех задач.

Зефир-7Б ЛЛМ

Уникальной особенностью модели Zephyr-7B является отсутствие цензуры. Несмотря на то, что он в некоторой степени не подвергается цензуре, он был разработан для того, чтобы при необходимости предостерегать от незаконной деятельности, обеспечивая соблюдение этических принципов в своих ответах. Этот аспект имеет решающее значение для поддержания целостности и ответственного использования модели.

Модель Zephyr-7B можно запустить локально с помощью LMStudio или веб-интерфейса генерации текста UABA. Это позволяет пользователям использовать шаблон в среде по своему выбору, улучшая его доступность и простоту использования.

Модель Zephyr-7B — важное дополнение к ландшафту ИИ. Его уникальная стратегия обучения, впечатляющая производительность и отсутствие цензуры отличают его от других моделей. Однако его производительность варьируется в зависимости от поставленной задачи, поэтому пользователям следует выбирать модель, которая лучше всего соответствует их конкретным потребностям. Активный сервер Discord компании предоставляет платформу для генеративных дискуссий, связанных с искусственным интеллектом, способствуя обучению и росту сообщества. Поскольку область искусственного интеллекта продолжает развиваться, будет интересно посмотреть, что принесут будущие версии таких моделей, как Zephyr-7B.

Читать далее Руководство:

Теги:

Оставить комментарий

Ваш электронный адрес не будет опубликован. Обязательные для заполнения поля помечены *