Skip to content
Modelos Falcon-H1 da TII disponíveis no Amazon Bedrock Marketplace e no SageMaker JumpStart
Source: aws.amazon.com

Modelos Falcon-H1 da TII disponíveis no Amazon Bedrock Marketplace e no SageMaker JumpStart

Sources: https://aws.amazon.com/blogs/machine-learning/tii-falcon-h1-models-now-available-on-amazon-bedrock-marketplace-and-amazon-sagemaker-jumpstart, https://aws.amazon.com/blogs/machine-learning/tii-falcon-h1-models-now-available-on-amazon-bedrock-marketplace-and-amazon-sagemaker-jumpstart/, AWS ML Blog

TL;DR

  • Os modelos Falcon-H1 da Technology Innovation Institute (TII) estão disponíveis no Amazon Bedrock Marketplace e no Amazon SageMaker JumpStart. Seis modelos com instruções são oferecidos: 0,5B, 1,5B, 1,5B-Deep, 3B, 7B e 34B.
  • Falcon-H1 usa um design híbrido paralelo que combina Modelos de Espaço de Estado (SSM) como o Mamba com a atenção dos Transformers para oferecer inferência mais rápida e menor uso de memória, mantendo boa compreensão de contexto.
  • A família Falcon-H1 oferece suporte multilíngue nativo em 18 idiomas e suporta até 256K de contexto, disponível sob a licença Falcon LLM.
  • As opções de implantação incluem Bedrock Marketplace e SageMaker JumpStart, com etapas guiadas, playgrounds de teste e integração com APIs Bedrock e ferramentas SageMaker para implantação segura e ajuste fino.

Contexto e antecedentes

A família Falcon-H1 tem origem na Technology Innovation Institute (TII), instituição de pesquisa líder baseada em Abu Dhabi e parte do UAE Advanced Technology Research Council (ATRC). A TII foca em IA, computação quântica, robótica autônoma, criptografia e mais. A AWS e a TII trabalham juntas para ampliar o acesso a modelos de IA de origem dos Emirados Árabes Unidos em todo o mundo, permitindo que profissionais construam e escalem aplicações de IA generativa com os modelos Falcon-H1. A arquitetura Falcon-H1 implementa um design híbrido paralelo que combina a inferência rápida e o baixo uso de memória dos SSMs com a capacidade de atenção dos Transformers. O design aproveita conceitos de Mamba e da arquitetura Transformer para oferecer eficiência e generalização. A família Falcon-H1 varia de 0,5 a 34 bilhões de parâmetros e oferece suporte nativo para 18 idiomas. Segundo a TII, modelos menores demonstram eficiência significativa ao alcançar paridade de desempenho com modelos maiores em várias situações. A TII lança os modelos Falcon-H1 sob a licença Falcon LLM para promover acessibilidade e colaboração na IA, além de apoiar governança e políticas de segurança. A disponibilidade no Bedrock Marketplace e no SageMaker JumpStart permite que desenvolvedores comparem modelos proprietários e públicos em um único ambiente e implantem com infraestrutura da AWS que prioriza segurança, escalabilidade e custo-eficiência. O material da postagem também descreve como testar o Falcon-H1-0,5B-Instruct no Bedrock Playground e invocar o modelo por meio da Bedrock Converse API, substituindo os placeholders pelo ARN do endpoint que começa com arn:aws:sagemaker. Do ponto de vista da plataforma, o Bedrock Marketplace oferece acesso a centenas de modelos por meio de APIs unificadas, com opções de tipo de instância e configurações de segurança, como VPC e chaves de criptografia. O JumpStart oferece fluxos de trabalho prontos para uso por meio do SageMaker Studio, SDK e Console, facilitando a integração com pipelines de ML existentes. O objetivo é facilitar a transição do descobrimento para a produção com maior velocidade, mantendo controles de governança e custos. Para organizações que avaliam qual opção entre Bedrock Marketplace ou SageMaker JumpStart atende melhor a seus requisitos, o post original oferece orientações sobre como escolher entre Bedrock e SageMaker AI com base em casos de uso, cargas de trabalho e contexto de segurança. A parceria entre TII e AWS busca ampliar o acesso a capacidades de IA de origem dos Emirados Árabes Unidos, mantendo governança e segurança. Mais detalhes estão disponíveis nas referências da postagem. A família Falcon-H1 enfatiza suporte multilíngue em 18 idiomas e escala de 0,5 a 34 bilhões de parâmetros, com até 256K de contexto. Essa combinação visa oferecer modelos de IA generativa eficientes e capazes para uma variedade de aplicações, operando dentro da infraestrutura de nuvem da AWS com Bedrock e JumpStart. Você pode explorar esses modelos em regiões onde Bedrock e JumpStart estejam disponíveis, de acordo com a disponibilidade regional e requisitos de conformidade. Para mais contexto sobre os objetivos mais amplos desta colaboração, consulte o AWS Machine Learning Blog e recursos relacionados mencionados na seção de Referências.

What’s new

  • Seis modelos Falcon-H1 com instruções estão disponíveis no Bedrock Marketplace e no SageMaker JumpStart: 0,5B, 1,5B, 1,5B-Deep, 3B, 7B e 34B.
  • A arquitetura Falcon-H1 utiliza um design híbrido paralelo que mescla SSMs com atenção de Transformer para otimizar velocidade de inferência e uso de memória.
  • Suporte multilíngue nativo em 18 idiomas, com contexto de até 256K, entre os tamanhos de modelo.
  • Os modelos são lançados sob a licença Falcon LLM e acessíveis por meio de Bedrock Marketplace APIs ou fluxos de implantação do JumpStart, facilitando descoberta, teste e uso em produção.
  • Orientações práticas de implantação são fornecidas para Bedrock Marketplace e JumpStart, incluindo um Bedrock playground para testes e exemplos usando a Bedrock Converse API, bem como um fluxo de trabalho do SageMaker Python SDK para implantações no JumpStart.
  • Pre-requisitos para implantação no Bedrock incluem possuir uma conta AWS com cota suficiente para endpoints ml.g6.xlarge; aumentos de cota podem ser solicitados via AWS Service Quotas.
  • O post demonstra um fluxo de implantação end-to-end para o Falcon-H1-0,5B-Instruct como exemplo, com passos aplicáveis a outros modelos Falcon-H1 da família, conforme a disponibilidade de cotas e recursos.

Tabela de visão geral do modelo

| Modelo | Parâmetros | Contexto | Idiomas | Arquitetura |---|---|---|---|---| | 0,5B | 0,5B | 256K | 18 | Híbrido SSM (Mamba) + Atenção Transformer |1,5B | 1,5B | 256K | 18 | Híbrido SSM + Atenção Transformer |1,5B-Deep | 1,5B | 256K | 18 | Híbrido SSM + Atenção Transformer |3B | 3B | 256K | 18 | Híbrido SSM + Atenção Transformer |7B | 7B | 256K | 18 | Híbrido SSM + Atenção Transformer |34B | 34B | 256K | 18 | Híbrido SSM + Atenção Transformer |

Por que isso é importante (impacto para desenvolvedores/empresas)

  • Acessibilidade e escalabilidade: Bedrock Marketplace e JumpStart oferecem caminhos unificados para descobrir, comparar e implantar grandes modelos de linguagem, facilitando a avaliação do Falcon-H1 frente a outros modelos disponíveis e escolhendo a melhor opção para cada workload.
  • Alcance global com IA de origem dos Emirados: a colaboração traz capacidades de IA desenvolvidas no UAE para audiência mundial, alinhando-se a metas regionais de inovação e à UAE National AI Strategy 2031, ao oferecer acesso global aos Falcon-H1.
  • Eficiência e custo-efetividade: o design híbrido reduz consumo de memória e melhora a eficiência de inferência, especialmente para modelos menores, sem comprometer desempenho. Isso viabiliza implantação em larga escala com custos mais controlados.
  • Segurança e governança: implantações no Bedrock e JumpStart podem ser configuradas em VPC, com opções de chaves de criptografia e etiquetagem de recursos para aderência a políticas de segurança.
  • Capacidades multilíngues: com suporte a 18 idiomas, os modelos Falcon-H1 são adequados para aplicações multilíngues e atendimento a clientes globais.

Detalhes técnicos ou Implementação

A família Falcon-H1 vai de 0,5B a 34B parâmetros e é construída sobre um design híbrido paralelo que mescla SSMs com a atenção do Transformer. Os SSMs, como o Mamba, promovem inferência mais rápida e menor uso de memória, enquanto a atenção do Transformer sustenta compreensão de contexto e generalização. A combinação oferece vantagens de eficiência em todos os tamanhos de modelo, mantendo capacidades modernas de LLM. O contexto de até 256K é suportado em todos os tamanhos, com suporte a 18 idiomas. As vias de implantação são duas: Bedrock Marketplace e SageMaker JumpStart. Bedrock oferece catálogo central de modelos com APIs unificadas, opções de tipo de instância e configurações de segurança, incluindo VPC e criptografia. JumpStart facilita fluxos de trabalho prontos para uso via Studio, SDK do SageMaker e Console, facilitando a integração com pipelines existentes. O post apresenta um fluxo end-to-end para o Falcon-H1-0,5B-Instruct, com passos aplicáveis a modelos maiores conforme disponibilidade de cotas e recursos. Pré-requisitos e considerações operacionais:

  • A implantação no Bedrock requer uma conta AWS com cota suficiente para endpoints ml.g6.xlarge; cotas padrão frequentemente são 0, então é necessário solicitar aumento de cota via AWS Service Quotas.
  • Após experimentar modelos Falcon-H1, é importante excluir endpoints e recursos associados para evitar encargos contínuos, seguindo as diretrizes oficiais do SageMaker para gerenciamento de recursos.
  • Embora o artigo use Falcon-H1-0,5B-Instruct como exemplo, os mesmos passos de implantação se aplicam aos demais modelos Falcon-H1 da família, sujeitando-se às cotas e disponibilidade de recursos.

Principais conclusões

  • Falcon-H1 amplia a disponibilidade de modelos LLM de origem UAE via Bedrock e JumpStart, expandindo o conjunto de opções para desenvolvimento de IA.
  • O design híbrido SSM/Transformer oferece eficiência com desempenho sólido, com suporte multilíngue em 18 idiomas e até 256K de contexto.
  • Implantações podem ser feitas pelo Bedrock Playground ou pelo JumpStart, com opções de Studio e SDK para integração com pipelines existentes.
  • A licença Falcon LLM reforça uma abordagem colaborativa e acessível à IA com controles de governança e segurança.
  • Fatores de pré-requisito e custos devem ser considerados: planeje solicitações de cotas e práticas de limpeza de recursos para evitar cobranças desnecessárias.

FAQ

  • Quais modelos Falcon-H1 estão disponíveis no Bedrock Marketplace e JumpStart?

    Seis modelos: 0,5B, 1,5B, 1,5B-Deep, 3B, 7B e 34B.

  • Como implantar Falcon-H1 no Bedrock versus JumpStart?

    O Bedrock oferece descoberta de modelos, APIs unificadas e opções de configuração de implantação, além de um Bedrock Playground para testes; o JumpStart fornece Studio, o SDK do SageMaker e o Console com fluxos de trabalho de implantação para produção e integração com pipelines de ML.

  • uais são os pré-requisitos para implantação no Bedrock?

    Conta AWS com cota suficiente para endpoints ml.g6.xlarge; se a cota for insuficiente, é necessário solicitar aumento via AWS Service Quotas.

  • ue capabilities os Falcon-H1 oferecem?

    Suporte multilíngue em 18 idiomas, até 256K de contexto, e variação de modelos de 0,5B a 34B parâmetros, com arquitetura híbrida SSM/Transformer e licença Falcon LLM.

  • Como gerenciar recursos para evitar cobranças contínuas?

    Exclua endpoints e recursos associados após a experimentação, seguindo as orientações do SageMaker para otimizar custos.

References

More news