Microsoft AI lance ses premiers modèles internes MAI-Voice-1 et MAI-1-preview
Sources: https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai, The Verge AI
TL;DR
- La division IA de Microsoft a annoncé ses premiers modèles internes : MAI-Voice-1 IA et MAI-1-preview. The Verge
- MAI-Voice-1 peut générer une minute d’audio en moins d’une seconde sur une seule GPU et alimente Copilot Daily et des discussions façon podcast. The Verge
- MAI-1-preview est entraîné sur environ 15 000 GPU Nvidia H100 et vise à suivre les instructions pour des réponses utiles dans des requêtes quotidiennes, avec un déploiement prévu pour des cas d’utilisation textuels dans Copilot. The Verge
- Cette initiative place les modèles internes de Microsoft aux côtés du partenariat avec OpenAI, avec l’objectif de proposer une gamme de modèles spécialisés pour différentes intentions et cas d’usage. The Verge
- La direction insiste sur une orientation centrée sur le consommateur et sur l’utilité pratique plutôt que sur des cas d’usage d’entreprise uniquement. The Verge
Contexte et antécédents
La stratégie IA de Microsoft équilibre le développement en interne et le recours au partenariat avec OpenAI. Cette annonce présente MAI-Voice-1 et MAI-1-preview comme les premiers modèles développés en interne. Ils s’inscrivent dans un effort plus large pour offrir des capacités orientées consommateur qui peuvent fonctionner aux côtés des outils basés sur OpenAI dans Copilot. L’objectif déclaré est de créer des modèles qui fonctionnent extrêmement bien pour le consommateur et qui sont optimisés pour l’expérience utilisateur, comme l’a évoqué Mustafa Suleyman lors d’émissions précédentes. The Verge MAI-Voice-1 est décrit comme un modèle vocal capable de générer une minute d’audio en moins d’une seconde sur une seule GPU. Microsoft l’utilise déjà en interne pour alimenter Copilot Daily, où un hôte IA lit les principales actualités, et pour générer des discussions au format podcast afin d’expliquer des sujets. Il est possible d’essayer MAI-Voice-1 via Copilot Labs, où l’utilisateur peut préciser ce que l’IA doit dire et ajuster la voix et le style de parole. The Verge Outre MAI-Voice-1, MAI-1-preview est introduit et destiné à des utilisateurs qui ont besoin d’un modèle d’IA capable de suivre des instructions et de fournir des réponses utiles à des requêtes quotidiennes. MAI-1-preview a été entraîné sur environ 15 000 GPU Nvidia H100. Microsoft prévoit de déployer MAI-1-preview pour certains cas d’utilisation textuels dans Copilot et a commencé des tests publics sur LMArena. The Verge Mustafa Suleyman, le chef de l’IA chez Microsoft, a souligné que les modèles internes ne visent pas uniquement le secteur entreprise, mais qu’ils doivent surtout fonctionner pour le consommateur. L’annonce évoque une ambition de déployer une gamme de modèles spécialisés servant différents usages et intentions utilisateur, offrant ainsi une valeur potentielle importante. The Verge
Ce qui est nouveau
MAI-Voice-1 et MAI-1-preview marquent l’entrée de Microsoft dans le domaine des modèles IA développés en interne, élargissant les capacités disponibles dans Copilot et les produits associés. MAI-Voice-1 prend en charge la génération orale et la personnalisation de la voix, permettant à Copilot Daily de présenter les actualités sous forme parlée et d’offrir des discussions au format podcast. MAI-1-preview se concentre sur le respect des instructions et les réponses utiles pour les tâches quotidiennes, avec un entraînement sur un grand ensemble de GPUs et une ouverture progressive à certains usages textuels dans Copilot. L’objectif est que ces modèles complètent les capacités basées sur OpenAI et offrent des options spécialisées selon les tâches. The Verge L’annonce souligne également une approche par tests et déploiement échelonnés. MAI-1-preview est testé sur LMArena et sera déployé pour certains usages textuels dans Copilot, avec une phase de tests publics en cours. Cette démarche démontre l’intérêt de Microsoft pour valider les performances dans des tâches réelles et proposer des expériences IA concrètes et évolutives à travers son écosystème logiciel. The Verge
Pourquoi c’est important (impact pour développeurs/entreprises)
Ces développements reflètent une trajectoire stratégique plus large : proposer un portefeuille de modèles spécialisés internes qui peuvent fonctionner aux côtés des offres d’OpenAI pour étendre les capacités dans Copilot et les produits connexes. En poursuivant des capacités axées sur le consommateur, Microsoft cherche à compléter son partenariat avec OpenAI tout en s’assurant que les technologies internes peuvent répondre à des scénarios d’usage grand public rapidement et efficacement — par exemple générer rapidement du contenu parlé et gérer des requêtes quotidiennes de manière pratique. L’objectif est de proposer un éventail d’outils IA adaptés à différentes tâches et intentions utilisateur. The Verge Pour les entreprises, l’introduction de MAI-1-preview peut ouvrir des perspectives de coûts et de performance lorsque l’on teste des modèles internes parallèlement à des LLM externes. Les entreprises qui utilisent Copilot pour des tâches textuelles courantes pourraient bénéficier de nouvelles options de flux IA, avec des possibilités d’intégration entre modèles internes et services externes. L’accent mis sur l’utilité consommateur suggère que les premiers modèles internes se concentrent sur des expériences grand public. The Verge
Détails techniques ou Mise en œuvre
- MAI-Voice-1 AI : modèle vocal capable de générer un minute d’audio en moins d’une seconde sur une seule GPU. Déjà intégré à des fonctionnalités comme Copilot Daily et utilisé pour générer des discussions de style podcast expliquant des sujets. Accès via Copilot Labs, où l’utilisateur peut préciser ce que l’IA doit dire et ajuster la voix et le style. The Verge
- MAI-1-preview : conçu pour suivre des instructions et fournir des réponses utiles; entraîné sur environ 15 000 GPU Nvidia H100. Plan de déploiement pour certains usages textuels dans Copilot; tests publics sur LMArena. The Verge
- Intégration Copilot : MAI-1-preview sera déployé pour des usages textuels dans Copilot, qui s’appuie actuellement sur des LLMs OpenAI. Cela indique une pile IA hétérogène où les modèles internes complètent les LLM externes pour des tâches spécifiques. The Verge
- Gouvernance et ambition : l’annonce évoque l’orchestration d’un éventail de modèles spécialisés pour différentes intentions et cas d’usage, alignée avec une expérience IA centrée sur le consommateur. The Verge | Modèle | Capacité notable | Entraînement/Ressources | Déploiement/Test actuel |--- |--- |--- |--- |MAI-Voice-1 AI | Génère un minute d’audio en moins d’une seconde avec une seule GPU | Modèle interne; utilisé dans l’écosystème Copilot | Alimentent Copilot Daily; accessible via Copilot Labs avec contrôles de voix |MAI-1-preview | Suit les instructions; fournit des réponses utiles | Entraîné sur environ 15 000 GPU Nvidia H100 | Déployé pour certains usages textuels dans Copilot; tests publics sur LMArena |
Points-clés
- Microsoft lance ses premiers modèles IA internes, élargissant les capacités internes aux côtés du partenariat avec OpenAI.
- MAI-Voice-1 permet une génération rapide de contenu parlé et est intégré à Copilot Daily et à d’autres expériences associées.
- MAI-1-preview vise à suivre des instructions pour des tâches quotidiennes et subit des tests publics et un déploiement dans Copilot.
- L’objectif est d’orchestrer une gamme de modèles spécialisés répondant à diverses intentions et cas d’usage.
- La direction insiste sur des résultats centrés sur le consommateur et sur des applications pratiques plutôt que sur une focalisation exclusive sur l’entreprise.
FAQ
-
Qu’est-ce que MAI-Voice-1 et MAI-1-preview ?
Ce sont les premiers modèles IA développés par Microsoft, destinés à supporter du contenu parlé et des tâches basées sur des instructions, respectivement. MAI-Voice-1 alimente Copilot Daily; MAI-1-preview vise les usages textuels. [The Verge](https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai)
-
Où ces modèles sont-ils utilisés aujourd’hui ?
MAI-Voice-1 alimente Copilot Daily et les discussions au format podcast; MAI-1-preview est en déploiement pour certains usages textuels dans Copilot et est en test public sur LMArena. [The Verge](https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai)
-
Combien de ressources ont été utilisées pour entraîner MAI-1-preview ?
Environ 15 000 GPU Nvidia H100. [The Verge](https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai)
-
uelle est l’objectif stratégique derrière ces modèles internes ?
Orchestrer une variété de modèles spécialisés pour différentes intentions et cas d’usage, en complément des capacités d’OpenAI et en mettant l’accent sur une expérience consommateur. [The Verge](https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai)
Références
- The Verge : Microsoft AI launches its first in-house models | https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai
More news
Premier aperçu de l'app Google Home propulsée par Gemini
The Verge rapporte que Google met Gemini dans l'application Google Home avec une refonte majeure et la nouvelle fonction 'Ask Home'.
NVIDIA HGX B200 réduit l’intensité des émissions de carbone incorporé
Le HGX B200 de NVIDIA abaisse l’intensité des émissions de carbone incorporé de 24% par rapport au HGX H100, tout en offrant de meilleures performances IA et une efficacité énergétique accrue. Cet article résume les données PCF et les nouveautés matérielles.
Shadow Leak montre comment les agents ChatGPT peuvent exfiltrer des données Gmail via injection de prompt
Des chercheurs en sécurité ont démontré une attaque par injection de prompt baptisée Shadow Leak, utilisant Deep Research de ChatGPT pour exfiltrer discrètement des données d'une boîte Gmail. OpenAI a corrigé la faille; l'affaire illustre les risques des IA agentisées.
Les démonstrations ratées des lunettes intelligentes Live AI de Meta n’avaient rien à voir avec le Wi‑Fi, affirme le CTO
Les démonstrations en direct des lunettes Ray‑Ban avec Live AI de Meta ont connu des échecs embarrassants. Le CTO Andrew Bosworth explique les causes, dont un trafic auto-imposé et un bug rare d’appel vidéo, et précise que le bug est corrigé.
OpenAI envisagerait un haut-parleur intelligent, des lunettes, un enregistreur vocal et un pin avec Jony Ive
OpenAI explorerait une famille d'appareils IA avec l'ancien chef du design d'Apple, Jony Ive, incluant un haut-parleur sans écran, des lunettes intelligentes, un enregistreur vocal et un pin portable, avec une sortie visée fin 2026 ou début 2027.
Comment les chatbots et leurs créateurs alimentent la psychose liée à l’IA
Analyse de la psychose liée à l’IA, de la sécurité des adolescents et des questions juridiques à mesure que les chatbots se multiplient, selon les reportages de Kashmir Hill pour The Verge.