Il nuovo modello Zephyr-7B LLM AI perfeziona Mistral-7B e batte Llama-2 70B

Il mondo dell’intelligenza artificiale ha visto un’altra pietra miliare notevole con il rilascio del nuovo modello di intelligenza artificiale Zephyr-7B su Hugging Face. Questo modello innovativo è il raffinato successore del modello originale Mistral 7B ed è riuscito a superare i modelli più grandi di 70 miliardi di parametri, anche senza censure. L'azienda ha inoltre pubblicato un rapporto tecnico completo, che fornisce una panoramica dettagliata del processo di formazione del modello. Prova il nuovo Zephyr 7B Beta qui.

Ottimizzazione delle preferenze dirette (DPO)

Il modello Zephyr-7B è stato addestrato utilizzando una strategia in tre fasi. Il primo passaggio consiste nell'eseguire una messa a punto supervisionata e distillata utilizzando il set di dati Ultra Chat. Questo set di dati, che include 1,47 milioni di dialoghi multipli generati da GPT 3.5 Turbo, è stato sottoposto a un rigoroso processo di pulizia e filtraggio, lasciando solo 200 esempi. Il processo di perfezionamento supervisionato e distillato prevede una dinamica del modello insegnante-studente, con un modello più ampio come GPT 000 che svolge il ruolo dell'insegnante e Zephyr-3.5B quello dello studente. Il modello dell'insegnante genera una conversazione basata su suggerimenti, che viene poi utilizzata per perfezionare il modello dello studente, Zephyr-7B.

Zephyr-7B sconfigge Llama-2 70B

Il secondo passo nella strategia di formazione è il feedback dell’intelligenza artificiale. Questo passaggio utilizza il set di dati Ultra Feedback, composto da 64 messaggi diversi. Quattro diversi modelli generano risposte a ciascun messaggio, che vengono poi valutate da GP000 in base alla loro onestà e utilità. Questo processo aiuta a perfezionare le risposte del modello, contribuendo così alla sua prestazione complessiva.

Il passaggio finale della strategia di formazione consiste nell'addestrare un altro modello utilizzando il set di dati creato con un vincitore e un perdente. Questo passaggio rafforza l’addestramento del modello Zephyr-7B, garantendo che possa generare risposte affidabili e di alta qualità.

Le prestazioni del modello Zephyr-7B sono state impressionanti, superando tutti gli altri modelli da 7 miliardi e anche modelli più grandi come i modelli Falcon 40 miliardi e Llama 2 da 70 miliardi. Tuttavia, è importante notare che le prestazioni del modello variano a seconda dell'attività specifica. Ad esempio, ha prestazioni peggiori in attività come la programmazione e la matematica. Gli utenti dovrebbero quindi scegliere un modello in base alle loro esigenze specifiche, poiché il modello Zephyr-7B potrebbe non essere il più adatto a tutte le attività.

Zephyr-7B LLM

Un aspetto unico del modello Zephyr-7B è la sua natura senza censure. Anche se in una certa misura non è censurato, è stato progettato per avvisare contro attività illegali quando richiesto, garantendo che le linee guida etiche siano seguite nelle sue risposte. Questo aspetto è fondamentale per mantenere l’integrità e l’uso responsabile del modello.

Il modello Zephyr-7B può essere eseguito localmente utilizzando LMStudio o l'interfaccia web di generazione testo UABA. Ciò consente agli utenti di utilizzare il modello nell'ambiente di loro scelta, migliorandone l'accessibilità e la facilità d'uso.

Il modello Zephyr-7B è un'importante aggiunta al panorama dell'IA. La sua strategia di allenamento unica, le prestazioni impressionanti e la natura senza censure lo distinguono dagli altri modelli. Tuttavia, le sue prestazioni variano a seconda dell'attività da svolgere e pertanto gli utenti dovrebbero scegliere il modello che meglio soddisfa le loro esigenze specifiche. Il server Discord attivo dell'azienda fornisce una piattaforma per discussioni generative legate all'intelligenza artificiale, promuovendo una comunità di apprendimento e crescita. Poiché il campo dell’intelligenza artificiale continua ad evolversi, sarà emozionante vedere cosa porteranno le future iterazioni di modelli come Zephyr-7B.

Leggi di più Guida:

Lascia un commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *