Together AI

Vincent DROUOT

Passionné de technologie et de pédagogie, il a évolué de la programmation initiale à la création de parcours e-learning et à l’adoption de méthodes en neuro-pédagogie et Design Thinking pour développer le LX Design.

Together AI relève les défis du MoE de Mistral

Facebook
Twitter
LinkedIn
WhatsApp
Email
Print

Le succès fulgurant de Mistral s’est volatilisé en 24 heures – Together AI l’a détrôné en proposant une version moins chère et plus rapide de son modèle de langage Mixture of Experts (autrement de « mélange d’experts » abrégé MoE dans sa version originale), accessible en libre accès.

Together AI a publié un modèle Mistral MoE hébergé à 100 tokens/sec qui est moins coûteux que l’API hébergée de Mistral en raison de son infrastructure existante et de son nouveau moteur d’inférence Together.

On peut se poser la question de savoir comment Mistral maintiendra son engagement en faveur de modèles open-source commerciaux permissifs alors qu’il est aux prises avec le fardeau financier des coûts de calcul.

Sachez que la vidéo ci-jointe n’est pas accélérée.
Rejoignez des milliers de chercheurs et d’ingénieurs de réputation mondiale de Google, Stanford, OpenAI et Meta pour rester à la pointe de l’IA http://aitidbits.ai