Unitalk
Retour
Meta

Llama 3.1 70B Instruct Turbo

bytogetherai
Le modèle Llama 3.1 70B est finement ajusté pour des applications à forte charge, quantifié en FP8 pour offrir une capacité de calcul et une précision plus efficaces, garantissant des performances exceptionnelles dans des scénarios complexes.

Fournisseurs prenant en charge ce modèle

Together AI
Metameta-llama/Meta-Llama-3.1-70B-Instruct-Turbo
Longueur maximale du contexte
128K
Longueur de sortie maximale
--
Prix d'entrée
--
Prix de sortie
--

Suggestions similaires

togetherai
Meta

Llama 3.2 3B Instruct Turbo

LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel.
128K
togetherai
Meta

Llama 3.2 11B Vision Instruct Turbo (Free)

LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel.
128K
togetherai
Meta

Llama 3.2 11B Vision Instruct Turbo

LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel.
128K
togetherai
Meta

Llama 3.2 90B Vision Instruct Turbo

LLaMA 3.2 est conçu pour traiter des tâches qui combinent des données visuelles et textuelles. Il excelle dans des tâches comme la description d'image et le questionnement visuel, comblant le fossé entre génération de langage et raisonnement visuel.
128K
togetherai
Meta

Llama 3.1 8B Instruct Turbo

Le modèle Llama 3.1 8B utilise la quantification FP8, prenant en charge jusqu'à 131 072 jetons de contexte, se distinguant parmi les modèles open source, adapté aux tâches complexes, surpassant de nombreux benchmarks industriels.
128K
togetherai
Meta

Llama 3.1 405B Instruct Turbo

Le modèle Llama 3.1 Turbo 405B offre un support de contexte de très grande capacité pour le traitement de grandes données, se distinguant dans les applications d'intelligence artificielle à très grande échelle.
130K
togetherai
Meta

Llama 3.1 Nemotron 70B

Llama 3.1 Nemotron 70B est un modèle de langage à grande échelle personnalisé par NVIDIA, conçu pour améliorer l'aide fournie par les réponses générées par LLM aux requêtes des utilisateurs. Ce modèle a excellé dans des tests de référence tels que Arena Hard, AlpacaEval 2 LC et GPT-4-Turbo MT-Bench, se classant premier dans les trois tests d'alignement automatique au 1er octobre 2024. Le modèle utilise RLHF (en particulier REINFORCE), Llama-3.1-Nemotron-70B-Reward et HelpSteer2-Preference pour l'entraînement sur la base du modèle Llama-3.1-70B-Instruct.
32K
togetherai
Meta

Llama 3 8B Instruct Turbo

Llama 3 8B Instruct Turbo est un modèle de langage à haute performance, prenant en charge une large gamme de scénarios d'application.
8K