Ny Zephyr-7B LLM AI-model forfiner Mistral-7B og slår Llama-2 70B

Verden af ​​kunstig intelligens har set endnu en bemærkelsesværdig milepæl med udgivelsen af ​​den nye Zephyr-7B kunstig intelligens-model på Hugging Face. Denne innovative model er den raffinerede efterfølger til den originale Mistral 7B-model, og den formåede at overgå større modeller med 70 milliarder parametre, selv når den var ucensureret. Virksomheden afslørede også en omfattende teknisk rapport, der giver et detaljeret overblik over modeltræningsprocessen. Prøv den nye Zephyr 7B Beta her.

Direkte præferenceoptimering (DPO)

Zephyr-7B modellen blev trænet ved hjælp af en tre-trins strategi. Det første trin er at udføre destilleret overvåget finjustering ved hjælp af Ultra Chat-datasættet. Dette datasæt, som inkluderer 1,47 millioner flere dialogbokse genereret af GPT 3.5 Turbo, gennemgik en streng rense- og filtreringsproces, hvilket kun efterlod 200 eksempler. Den destillerede overvågede forfiningsproces involverer en lærer-elev-modeldynamik, hvor en større model som GPT 000 spiller rollen som læreren og Zephyr-3.5B rollen som eleven. Lærermodellen genererer en prompt-baseret samtale, som derefter bruges til at forfine elevmodellen, Zephyr-7B.

Zephyr-7B besejrer Llama-2 70B

Det andet trin i træningsstrategien er AI-feedback. Dette trin bruger Ultra Feedback-datasættet, der består af 64 forskellige meddelelser. Fire forskellige modeller genererer svar på hver besked, som derefter evalueres af GP000 baseret på deres ærlighed og anvendelighed. Denne proces hjælper med at forfine modellens svar og bidrager derved til dens overordnede ydeevne.

Det sidste trin i træningsstrategien er at træne en anden model ved hjælp af det oprettede datasæt med en vinder og en taber. Dette trin styrker træningen af ​​Zephyr-7B-modellen og sikrer, at den kan generere pålidelige svar af høj kvalitet.

Ydeevnen af ​​Zephyr-7B-modellen var imponerende og overgik alle andre 7 milliarder modeller og endnu større modeller som Falcon 40 milliarder og Llama 2 70 milliarder modeller. Det er dog vigtigt at bemærke, at modellens ydeevne varierer afhængigt af den specifikke opgave. For eksempel klarer den dårligere opgaver som kodning og matematik. Brugere bør derfor vælge en model ud fra deres specifikke behov, da Zephyr-7B modellen måske ikke er bedst egnet til alle opgaver.

Zephyr-7B LLM

Et unikt aspekt ved Zephyr-7B-modellen er dens ucensurerede karakter. Selvom det til en vis grad er ucensureret, er det designet til at fraråde ulovlige aktiviteter, når de bliver bedt om det, og sikre, at etiske retningslinjer følges i dens svar. Dette aspekt er afgørende for at opretholde integriteten og ansvarlig brug af modellen.

Zephyr-7B-modellen kan køres lokalt ved hjælp af LMStudio eller UABA-tekstgenereringswebgrænsefladen. Dette giver brugerne mulighed for at bruge skabelonen i det miljø, de selv vælger, hvilket forbedrer dens tilgængelighed og brugervenlighed.

Zephyr-7B-modellen er en vigtig tilføjelse til AI-landskabet. Dens unikke træningsstrategi, imponerende ydeevne og ucensurerede karakter adskiller den fra andre modeller. Dens ydeevne varierer dog afhængigt af opgaven, og derfor bør brugerne vælge den model, der bedst opfylder deres specifikke behov. Virksomhedens aktive Discord-server giver en platform for generative AI-relaterede diskussioner, der fremmer et fællesskab med læring og vækst. Efterhånden som AI-området fortsætter med at udvikle sig, bliver det spændende at se, hvad fremtidige iterationer af modeller som Zephyr-7B bringer.

Læs mere guide:

Mærker:

Skriv en kommentar

Din e-mail-adresse vil ikke blive offentliggjort. Påkrævede felter er markeret med *