NVIDIA Jetson Thor: a plataforma definitiva para IA física
Sources: https://developer.nvidia.com/blog/introducing-nvidia-jetson-thor-the-ultimate-platform-for-physical-ai, https://developer.nvidia.com/blog/introducing-nvidia-jetson-thor-the-ultimate-platform-for-physical-ai/, NVIDIA Dev Blog
TL;DR
- A NVIDIA apresenta o Jetson Thor, a plataforma definitiva para IA física, combinando GPU Blackwell, 128 GB de memória e MIG para robótica de borda.
- Oferece até 7,5x mais computação de IA e até 3,5x melhor eficiência energética em relação ao Jetson AGX Orin, com quantização nativa FP4 e um Transformer Engine que alterna entre FP4 e FP8 para desempenho otimizado.
- Suporta vários modelos de IA generativa na borda (LLMs, VLMs, modelos VLA) e processamento de sensores em tempo real, com demonstração de 16 solicitações simultâneas.
- A plataforma é complementada pelo Jetson AGX Thor Developer Kit e pelo módulo Jetson T5000, JetPack 7, CUDA 13.0 para ARM e pilha de software com Isaac, Metropolis e Holoscan.
- MIG, I/O robusto (QSFP 4x25 GbE, RJ-45, USB) e envelope de 130 W permitem prototipagem rápida para robôs humanoides e autônomos.
Contexto e antecedentes
A robótica passa por uma revolução rumo a plataformas generalistas capazes de aprender, adaptar-se e operar em ambientes variados, sem precisar ser reprogramada para cada tarefa. Inspiradas pela cognição humana, robôs adaptáveis unem respostas rápidas e percepção com planejamento de alto nível para facilitar o aprendizado e a adaptação. A NVIDIA apresentou o ecossistema Isaac GR00T na GTC 2025, reunindo modelos de robótica, pipelines de dados sintéticos, ambiente de simulação e um computador de tempo real. Com esse cenário, o Jetson Thor surge como a extensão de borda para acelerar modelos de base e processamento multimodal em robôs. NVIDIA descreve Thor como um salto gigante na IA de borda para robótica física.
O que há de novo
O Thor se baseia em dois produtos principais: NVIDIA Jetson AGX Thor Developer Kit e NVIDIA Jetson T5000 module. O kit oferece desempenho e escalabilidade incomparáveis para robótica de borda, alimentado pela GPU NVIDIA Blackwell, com 128 GB de memória e envelope de potência de 130 W. Fornece até 2070 FP4 TFLOPS de computação de IA para rodar modelos gerativos avançados no edge, com até 7,5x mais computação de IA que o Jetson AGX Orin e até 3,5x melhor eficiência energética. A plataforma introduz quantização FP4 nativa com um Transformer Engine de próxima geração que alterna dinamicamente entre FP4 e FP8 para otimizar desempenho. Principais destaques de hardware e software incluem:
- CPU de 14 núcleos Arm Neoverse-V3AE e uma suíte de aceleradores, incluindo um PVA de terceira geração, encoders/decoders duplos e um acelerador de fluxo óptico.
- MIG (Multi-Instance GPU), permitindo particionar a GPU em instâncias isoladas com recursos dedicados para workloads previsíveis.
- E/S extensa, incluindo slot QSFP com 4x25 GbE, conector RJ-45 Multi-GbE com fio, várias portas USB e outras opções para integração rápida de sensores.
- Compatibilidade com plataformas robóticas humanoides e tethering facilitado para prototipagem rápida. Do lado do software, Thor executa o stack de IA da NVIDIA para IA física, incluindo NVIDIA Isaac para robótica, NVIDIA Metropolis para IA visual agentiva e NVIDIA Holoscan para processamento de sensores. A plataforma suporta fluxos de trabalho de IA de ponta a ponta, incluindo vídeo search and summarization (VSS) para construção de agentes de IA no edge. NVIDIA descreve esses componentes e como eles se integram.
Por que isso importa (impacto para desenvolvedores/empresas)
Jetson Thor foi criado para permitir que robôs operem com flexibilidade, raciocínio de alto nível e percepção robusta sem reprogramação constante. Ao acelerar modelos de base na borda, Thor viabiliza robôs com planejamento flexível, tomada de decisão em tempo real e operação confiável em ambientes dinâmicos. Isso é particularmente relevante para manufatura, logística, assistência médica e sistemas autônomos, onde latência baixa, desempenho previsível e segurança são críticos. A capacidade de rodar múltiplos modelos de IA generativa na borda, apoiada por CUDA 13.0 em ARM e por MIG, reduz custos, acelera o tempo de implementação e facilita pipelines de edge-to-cloud para aplicações robóticas. Demonstrações com 16 solicitações simultâneas para modelos VLMs e LLMs indicam a capacidade de resposta do sistema em cenários práticos de robótica interativa, percepção em tempo real e tomada de decisão. A combinação de aceleração de IA de base com um ecossistema sólido de software permite aos times construir, testar e implantar agentes de IA no edge com maior confiabilidade e escalabilidade. NVIDIA oferece detalhes sobre o impacto esperado e casos de uso.
Detalhes técnicos ou Implementação (para prática)
Jetson Thor integra uma pilha moderna de IA de borda, desenhada para cargas de trabalho multimodais e de inferência em tempo real. Considerações técnicas importantes:
- Quantização e inferência: suporte nativo a FP4 com um Transformer Engine que seleciona dinamicamente FP4 ou FP8 para maior throughput. A decodificação especulativa acelera a geração usando um modelo menor para propor tokens, com o modelo maior validando-os para manter a precisão.
- Escalonamento de geração: a plataforma suporta múltiplos modelos de IA generativa simultaneamente (LLMs, VLMs, VLAs) com latência baixa demonstrada em cenários de borda.
- Software de borda: Jetson transmite um stack de software otimizado para borda, alinhado ao SBSA para interoperabilidade empresarial. A pilha facilita fusão rápida de sensores, planejamento de movimento e controle determinístico.
- Ecossistema: NVIDIA Isaac para robótica, Metropolis para IA visual agentiva e Holoscan para processamento de sensores integram-se para suportar agentes de IA no edge. NVIDIA descreve como esses componentes funcionam juntos.
- Flujo de desenvolvimento empresarial: CUDA 13.0 aplicado a ARM permite consistência entre ambientes de servidor e borda, simplificando portabilidade de software e integração empresarial. NVIDIA discute esse alinhamento.
- Desempenho e benchmarks: Thor apresenta melhorias de até 5x sobre o Orin em modelos de IA gerativa, com ganhos adicionais de velocidade ao usar FP4 e decodificação especulativa. Em benchmarks específicos, o Qwen2.5-VL-7B atingiu até 3,5x de inferência mais rápida em Thor com quantização FP4 e decodificação Eagle em comparação ao Orin com W4A16. NVIDIA fornece esses números e as configurações associadas.
Especificações rápidas (visão geral)
| Componente | Especificações-chave |
|---|---|
| Arquitetura de GPU | Blackwell |
| Memória | 128 GB |
| IA compute (FP4 TFLOPS) | até 2070 |
| Envelope de potência | 130 W |
| CPU | 14-core Arm Neoverse-V3AE |
| MIG | Sim |
| PVA | Terceira geração |
| I/O | QSFP 4x25 GbE, RJ-45 multi-GbE, USB, entre outros |
| Quanto ao software, a NVIDIA enfatiza uma instalação CUDA 13.0 única para ARM, promovendo consistência entre plataformas. O stack de software Jetson (JetPack 7) inclui Linux 6.8 e Ubuntu 24.04 LTS, além de Isaac, Metropolis e Holoscan para IA física. NVIDIA detalha esses componentes e a integração com a base de hardware. |
Por que isso importa para desenvolvedores/empresas
Jetson Thor permite que desenvolvedores criem robôs adaptáveis com raciocínio de alto nível, percepção robusta e controle determinístico no edge, sem a necessidade de reprogramação constante. Isso reduz custos, acelera a entrega de novas capacidades e facilita a adoção de fluxos de trabalho edge-to-cloud para IA em robótica. A presença de migração de modelos, isolamento por MIG e suporte a uma variedade de modelos gerativos no edge cria um ecossistema único para robótica industrial, logística e assistiva. A capacidade de rodar várias tarefas de IA simultaneamente, com latência previsível, é crucial para ambientes regulados e aplicações sensíveis ao tempo. NVIDIA oferece visão adicional sobre impacto e casos de uso.
Takeaways-chave
- Thor oferece plataforma de borda para IA física com flexibilidade de tarefas sem reprogramação constante.
- A combinação de FP4/FP8, MIG e 128 GB de memória gera ganhos significativos de throughput e eficiência energética frente a gerações anteriores.
- Suporte a LLMs, VLMs e VLAs no edge, com demonstração de latência baixa para múltiplos modelos.
- Stack de software coeso (JetPack 7, CUDA 13.0, Isaac, Metropolis, Holoscan) facilita prototipagem a implantação.
- Conectividade robusta e isolamento por MIG permitem deployments confiáveis em cenários de automação e robótica.
FAQ
-
Como a quantização FP4 ajuda?
A quantização FP4 com Transformer Engine dinâmico (FP4/FP8) aumenta o throughput de IA com melhor uso da largura de banda de memória, mantendo precisão mediante decodificação especulativa. [NVIDIA](https://developer.nvidia.com/blog/introducing-nvidia-jetson-thor-the-ultimate-platform-for-physical-ai/)
-
Quais cargas de trabalho o Thor suporta?
Suporta uma ampla gama de modelos gerativos, incluindo LLMs, VLMs e VLAs, para tarefas de robótica como manipulação, navegação e seguimento de instruções na borda. [NVIDIA](https://developer.nvidia.com/blog/introducing-nvidia-jetson-thor-the-ultimate-platform-for-physical-ai/)
-
Como o Thor se compara ao Orin?
Oferece até 7,5x mais computação de IA e até 3,5x melhor eficiência energética; ganhos adicionais de até 5x em modelos gerativos com o uso de FP4/decodificação especulativa. [NVIDIA](https://developer.nvidia.com/blog/introducing-nvidia-jetson-thor-the-ultimate-platform-for-physical-ai/)
-
Que stack de software está incluída?
Jetson Thor opera com JetPack 7, Linux 6.8 e Ubuntu 24.04 LTS, integrando Isaac, Metropolis e Holoscan para IA física. [NVIDIA](https://developer.nvidia.com/blog/introducing-nvidia-jetson-thor-the-ultimate-platform-for-physical-ai/)
Referências
More news
NVIDIA HGX B200 reduz a Intensidade de Emissões de Carbono Incorporado
O HGX B200 da NVIDIA reduz 24% da intensidade de carbono incorporado em relação ao HGX H100, ao mesmo tempo em que aumenta o desempenho de IA e a eficiência energética. Esta análise resume os dados de PCF e as novidades de hardware.
Prever Eventos Climáticos Extremos em Minutos sem Supercomputador com Huge Ensembles (HENS)
NVIDIA e o Lawrence Berkeley National Laboratory apresentam Huge Ensembles (HENS), uma ferramenta de IA de código aberto que prevê eventos climáticos raros e de alto impacto usando 27.000 anos de dados, com opções de código aberto ou prontos para uso.
Playbook dos Grandmasters do Kaggle: 7 Técnicas de Modelagem Testadas para Dados Tabulares
Análise detalhada de sete técnicas testadas por Grandmasters do Kaggle para resolver grandes conjuntos de dados tabulares com aceleração por GPU, desde baselines diversificados até ensemble avançado e pseudo-rotulagem.
Como reduzir gargalos do KV Cache com NVIDIA Dynamo
O Dynamo da NVIDIA transfere o KV Cache da memória da GPU para armazenamento de custo mais baixo, permitindo janelas de contexto maiores, maior concorrência e menor custo de inferência em grandes modelos.
Microsoft transforma site da Foxconn no data center Fairwater AI, considerado o mais poderoso do mundo
A Microsoft divulga planos para um data center Fairwater AI de 1,2 milhão de pés quadrados no Wisconsin, com centenas de milhares de GPUs Nvidia GB200. projeto de US$ 3,3 bilhões promete treinamento de IA em escala sem precedentes.
NVIDIA RAPIDS 25.08 Adiciona Novo Profiler para cuML, Melhorias no Motor GPU Polars e Suporte Ampliado de Algoritmos
RAPIDS 25.08 traz profiladores function-level e line-level para cuml.accel, executor streaming padrão no motor GPU Polars, suporte ampliado de tipos e strings, novo Spectral Embedding no cuML e acelerações com zero código para mais algoritmos.