Ny Zephyr-7B LLM AI-modell förfinar Mistral-7B och slår Llama-2 70B

Världen av artificiell intelligens har sett ytterligare en anmärkningsvärd milstolpe med lanseringen av den nya Zephyr-7B artificiell intelligensmodell på Hugging Face. Denna innovativa modell är den förfinade efterföljaren till den ursprungliga Mistral 7B-modellen, och den lyckades överträffa större modeller med 70 miljarder parametrar, även när den var ocensurerad. Företaget avslöjade också en omfattande teknisk rapport som ger en detaljerad översikt över modellutbildningsprocessen. Prova nya Zephyr 7B Beta här.

Direkt preferensoptimering (DPO)

Zephyr-7B-modellen tränades med en trestegsstrategi. Det första steget är att utföra destillerad övervakad finjustering med hjälp av Ultra Chat-datauppsättningen. Denna datauppsättning, som innehåller 1,47 miljoner multipla dialogrutor genererade av GPT 3.5 Turbo, gick igenom en rigorös rengörings- och filtreringsprocess, vilket bara lämnade 200 000 exempel. Den destillerade övervakade förfiningsprocessen involverar en lärar-elevmodelldynamik, där en större modell som GPT 3.5 spelar rollen som lärare och Zephyr-7B som elev. Lärarmodellen genererar en promptbaserad konversation, som sedan används för att förfina elevmodellen, Zephyr-7B.

Zephyr-7B besegrar Llama-2 70B

Det andra steget i träningsstrategin är AI-feedback. Det här steget använder datauppsättningen Ultra Feedback, som består av 64 000 olika meddelanden. Fyra olika modeller genererar svar på varje meddelande, som sedan utvärderas av GP4 ​​baserat på deras ärlighet och användbarhet. Denna process hjälper till att förfina modellens svar och bidrar därmed till dess övergripande prestanda.

Det sista steget i träningsstrategin är att träna en annan modell med hjälp av den skapade datamängden med en vinnare och en förlorare. Detta steg stärker träningen av Zephyr-7B-modellen, vilket säkerställer att den kan generera pålitliga svar av hög kvalitet.

Zephyr-7B-modellens prestanda var imponerande och överträffade alla andra 7 miljarder modeller och till och med större modeller som Falcon 40 miljarder och Llama 2 70 miljarder modeller. Det är dock viktigt att notera att modellens prestanda varierar beroende på den specifika uppgiften. Till exempel presterar den sämre på uppgifter som kodning och matematik. Användare bör därför välja en modell utifrån sina specifika behov, eftersom Zephyr-7B-modellen kanske inte är bäst lämpad för alla uppgifter.

Zephyr-7B LLM

En unik aspekt av Zephyr-7B-modellen är dess ocensurerade karaktär. Även om den till viss del är ocensurerad, har den utformats för att avråda från olaglig verksamhet när den uppmanas, för att säkerställa att etiska riktlinjer följs i svaren. Denna aspekt är avgörande för att upprätthålla integriteten och ansvarsfull användning av modellen.

Zephyr-7B-modellen kan köras lokalt med LMStudio eller UABA-textgenereringswebbgränssnittet. Detta tillåter användare att använda mallen i den miljö de väljer, vilket förbättrar dess tillgänglighet och användarvänlighet.

Zephyr-7B-modellen är ett viktigt tillägg till AI-landskapet. Dess unika träningsstrategi, imponerande prestanda och ocensurerade karaktär skiljer den från andra modeller. Dess prestanda varierar dock beroende på uppgiften, och därför bör användare välja den modell som bäst uppfyller deras specifika behov. Företagets aktiva Discord-server tillhandahåller en plattform för generativa AI-relaterade diskussioner, vilket främjar en gemenskap av lärande och tillväxt. När området för AI fortsätter att utvecklas, kommer det att bli spännande att se vad framtida iterationer av modeller som Zephyr-7B för med sig.

Läs mer Guide:

Taggar:

Lämna en kommentar

Din e-postadress kommer inte att publiceras. Obligatoriska fält är markerade *