A Microsoft AI lança seus primeiros modelos internos MAI-Voice-1 e MAI-1-preview
Sources: https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai, The Verge AI
TL;DR
- A divisão de IA da Microsoft anunciou seus primeiros modelos internos: MAI-Voice-1 AI e MAI-1-preview. The Verge
- MAI-Voice-1 pode gerar um minuto de áudio em menos de um segundo em uma única GPU e é usado para alimentar o Copilot Daily e discussões em estilo de podcast. The Verge
- MAI-1-preview foi treinado em cerca de 15.000 GPUs Nvidia H100 e visa seguir instruções para respostas úteis em tarefas cotidianas, com implantação prevista para casos de uso de texto no Copilot. The Verge
- A iniciativa coloca os modelos internos da Microsoft ao lado da parceria com a OpenAI, com o objetivo de oferecer um conjunto de modelos especializados para diferentes intenções e casos de uso. The Verge
- Liderança enfatiza foco no consumidor e utilidade prática, em vez de aplicações empresariais exclusivas. The Verge
Contexto e antecedentes
A estratégia de IA da Microsoft tem equilibrado o desenvolvimento de capacidades internas com o uso da parceria com a OpenAI. A recente iniciativa apresenta MAI-Voice-1 e MAI-1-preview como seus primeiros modelos desenvolvidos internamente. Esses modelos refletem um esforço mais amplo para oferecer capacidades voltadas ao consumidor, que podem operar ao lado de ferramentas baseadas na OpenAI no Copilot, linha de recursos de IA integrada ao conjunto de produtividade da Microsoft. A mensagem aponta o desejo de criar modelos que funcionem extremamente bem para o consumidor e que sejam otimizados para experiências voltadas ao usuário, conforme destacava o CEO Suleyman em declarações anteriores. The Verge O MAI-Voice-1 é descrito como um modelo de fala capaz de gerar um minuto de áudio em menos de um segundo em uma única GPU. A empresa já utiliza o MAI-Voice-1 internamente para alimentar recursos como o Copilot Daily, em que um apresentador de IA lê as principais notícias do dia, e para gerar discussões em estilo de podcast que ajudam a explicar tópicos. Usuários podem experimentar o MAI-Voice-1 via Copilot Labs, onde é possível indicar o que a IA deve dizer e ajustar a voz e o estilo de fala. The Verge Além do MAI-Voice-1, a Microsoft apresentou o MAI-1-preview, desenvolvido para usuários que precisam de um modelo de IA capaz de seguir instruções e fornecer respostas úteis para perguntas do dia a dia. O MAI-1-preview foi treinado em torno de 15.000 GPUs Nvidia H100. A Microsoft planeja disponibilizar o MAI-1-preview para alguns casos de uso de texto no Copilot e já iniciou testes públicos no LMArena, plataforma de benchmarking de IA. The Verge O diretor de IA da Microsoft, Mustafa Suleyman, enfatizou a direção centrada no consumidor dos modelos internos, destacando o foco em utilidade para o usuário em vez de casos de uso empresariais. A empresa descreveu uma ambição de conduzir uma variedade de modelos especializados para diferentes intenções e cenários de uso, sugerindo que essa abordagem pode desbloquear um valor significativo. The Verge
O que há de novo
MAI-Voice-1 e MAI-1-preview representam a entrada da Microsoft no espaço de modelos de IA desenvolvidos internamente, expandindo as capacidades disponíveis no Copilot e em recursos relacionados. MAI-Voice-1 dá suporte à geração de conteúdo falado e personalização de voz, permitindo que o Copilot Daily apresente notícias em formato falado e oferecendo discussões no estilo de podcast. MAI-1-preview foca em seguir instruções e responder a tarefas cotidianas, com treinamento realizado em um grande conjunto de GPUs e com implantação planejada para casos de uso de texto no Copilot. O objetivo é que esses modelos completem as capacidades baseadas na OpenAI, oferecendo opções especializadas para diferentes tarefas. The Verge Um aspecto importante do anúncio é a estratégia de teste e implantação em etapas. O MAI-1-preview está passando por testes no LMArena, plataforma de benchmarking de IA, e deve ser disponibilizado para uso textual em Copilot com uma fase de rollout mais ampla. Essa abordagem indica o interesse da Microsoft em validar desempenho em tarefas do mundo real e oferecer experiências de IA tangíveis que possam escalar pelo ecossistema de software da empresa. The Verge
Por que isso importa (impacto para desenvolvedores/empresas)
Essas novidades refletem uma direção estratégica mais ampla: oferecer um portfólio de modelos especializados em-house que possam operar ao lado das offerings da OpenAI para ampliar capacidades no Copilot e em produtos relacionados. Ao buscar capacidades voltadas ao consumidor, a Microsoft procura complementar a parceria com a OpenAI, assegurando que tecnologias internas possam lidar com cenários de usuários consumidores com rapidez e eficiência — como gerar conteúdo falado de forma rápida e responder de forma prática a perguntas cotidianas. A ideia de orquestrar múltiplos modelos especializados sugere que desenvolvedores e empresas poderão acessar um conjunto de ferramentas de IA adaptadas a tarefas e intents específicos. The Verge Para as empresas, a introdução do MAI-1-preview pode indicar possibilidades de custo e desempenho ao experimentar modelos internos paralelamente aos LLMs hospedados externamente. Empresas que dependem do Copilot para tarefas textuais rotineiras podem encontrar novas opções de fluxos de IA, inclusive com possibilidades de integração entre modelos in-house e serviços de terceiros. A ênfase em utilidade voltada ao consumidor também sugere que a primeira onda de modelos internos foca em experiências de nível consumidor, com foco em casos de uso amplos. The Verge
Detalhes técnicos ou Implementação
- MAI-Voice-1 AI: modelo de fala capaz de gerar um minuto de áudio em menos de um segundo usando uma única GPU. Já está integrado a recursos como o Copilot Daily e é usado para gerar discussões em estilo de podcast que explicam tópicos. Acesso disponível via Copilot Labs, onde é possível personalizar o que a IA dirá e ajustar a voz e o estilo de falar. The Verge
- MAI-1-preview: criado para seguir instruções e fornecer respostas úteis para perguntas do dia a dia. Treinado em aproximadamente 15.000 GPUs Nvidia H100. Planos de implantação incluem usos específicos de texto no Copilot; já está sob testes públicos no LMArena. The Verge
- Integração com Copilot: MAI-1-preview será implantado para casos de uso de texto no Copilot, que atualmente depende de modelos de linguagem da OpenAI. A evolução sugere uma pilha de IA heterogênea, na qual modelos internos complementam LLMs externos para tarefas específicas. The Verge
- Governança e ambição: o anúncio enfatiza a ideia de orquestrar múltiplos modelos especializados para diferentes intenções e cenários, alinhado à ênfase em experiências de IA voltadas ao consumidor. The Verge | Modelo | Capacidade notável | Treinamento/Recursos | Implantação/TESTEs atuais |--- |--- |--- |--- |MAI-Voice-1 AI | Gera um minuto de áudio em menos de um segundo com uma única GPU | Modelo interno; utilizado no ecossistema Copilot | Alimenta Copilot Daily; disponível via Copilot Labs com controles de voz |MAI-1-preview | Segue instruções; fornece respostas úteis para tarefas diárias | Treinado em cerca de 15.000 GPUs Nvidia H100 | Em rollout para casos de uso de texto no Copilot; testes públicos no LMArena |
Principais pontos
- A Microsoft lançou seus primeiros modelos de IA desenvolvidos internamente, expandindo capacidades internas junto à parceria com a OpenAI.
- MAI-Voice-1 permite geração rápida de conteúdo falado e está integrado ao Copilot Daily e experiências relacionadas.
- MAI-1-preview foca em seguir instruções para tarefas do dia a dia e está passando por testes públicos e rollout no Copilot.
- A empresa planeja orquestrar uma gama de modelos especializados para atender diferentes intenções de usuário e casos de uso.
- A liderança enfatiza resultados centrados no consumidor, com foco inicial em utilidade prática para usuários, não apenas em cenários empresariais.
FAQ
-
O que são MAI-Voice-1 e MAI-1-preview?
São os primeiros modelos de IA desenvolvidos pela Microsoft, anunciados para suportar conteúdo falado e tarefas de seguir instruções, respectivamente.
-
Onde esses modelos estão sendo usados hoje?
MAI-Voice-1 alimenta o Copilot Daily e discussões em estilo de podcast; MAI-1-preview está em rollout para usos de texto no Copilot e em testes públicos no LMArena. [The Verge](https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai)
-
Como foram alocados os recursos para treinar o MAI-1-preview?
Foram usados cerca de 15.000 GPUs Nvidia H100. [The Verge](https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai)
-
ual é o objetivo estratégico por trás desses modelos internos?
Orquestrar uma variedade de modelos especializados para diferentes intenções de usuário e cenários, com foco em experiências centradas no consumidor enquanto mantém colaboração com a OpenAI. [The Verge](https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai)
Referências
- The Verge: Microsoft AI launches its first in-house models | https://www.theverge.com/news/767809/microsoft-in-house-ai-models-launch-openai
More news
Primeira olhada no app Google Home alimentado pelo Gemini
O The Verge mostra que o Google está atualizando o app Google Home para trazer recursos do Gemini, incluindo a barra de busca Ask Home, um redesign da interface e controles por voz natural para o lar.
NVIDIA HGX B200 reduz a Intensidade de Emissões de Carbono Incorporado
O HGX B200 da NVIDIA reduz 24% da intensidade de carbono incorporado em relação ao HGX H100, ao mesmo tempo em que aumenta o desempenho de IA e a eficiência energética. Esta análise resume os dados de PCF e as novidades de hardware.
Demos fracassados de óculos com Live AI da Meta não tiveram relação com Wi‑Fi, explica o CTO
Demos ao vivo dos óculos Ray‑Ban com Live AI da Meta enfrentaram falhas constrangedoras. O CTO Andrew Bosworth explica as causas, incluindo tráfego autoimplicado e um bug raro de chamada de vídeo, e aponta que o bug foi corrigido.
OpenAI supostamente desenvolve alto-falante inteligente, óculos, gravador e pin com Jony Ive
A OpenAI estaria explorando uma família de dispositivos com o ex-chefe de design da Apple, Jony Ive, incluindo um alto-falante inteligente sem tela, óculos, um gravador de voz e um pin vestível, com lançamento previsto para o final de 2026 ou início de 2027.
Shadow Leak mostra como agentes do ChatGPT podem exfiltrar dados do Gmail via injeção de prompt
Pesquisadores de segurança demonstraram uma injeção de prompt chamada Shadow Leak que usou o Deep Research do ChatGPT para extrair dados de uma caixa de entrada do Gmail. OpenAI corrigiu a falha; o caso destaca riscos de IA com atuação autônoma.
Google expande Gemini no Chrome com lançamento multiplataforma e sem taxa de assinatura
O Gemini AI no Chrome ganha acesso às abas, histórico e propriedades do Google, com rollout para Mac e Windows nos EUA sem cobrança e com automação de tarefas e integrações com o Workspace.