Lançamento Web do Alexa+ e Avanços em Hardware de IA Autônoma em 2026
A Amazon lançou o Alexa+ na web através do site Alexa.com, expandindo seu assistente de IA para além dos dispositivos Echo pela primeira vez. Mais de 10 milhões de usuários ganharam acesso à interface baseada em navegador, que se integra com Expedia, Yelp, Uber e OpenTable para capacidades agênticas de reservas e agendamentos. A plataforma será gratuita para assinantes do Amazon Prime ou disponível de forma avulsa por US$ 19,99 mensais após o término do período de acesso antecipado. A Amazon reporta que as interações de compras e culinária aumentaram de três a cinco vezes após o lançamento.
O aplicativo móvel redesenhado apresenta uma interface com chatbot em primeiro plano e histórico de conversas. A Amazon afirma que 76% dos casos de uso do Alexa+ são únicos em comparação com outros assistentes de IA. O assistente lida com tarefas complexas incluindo controle de dispositivos inteligentes, atualizações de calendário compartilhado e solicitações multiplataforma em todo o ecossistema da Amazon. O Alexa+ também está programado para aparecer no BMW iX3 de 2026.
A Samsung anunciou planos para dobrar os dispositivos móveis equipados com Gemini de 400 milhões para 800 milhões de unidades em 2026. O reconhecimento da marca Galaxy AI aumentou de 30% para 80% em um ano, dando ao Google uma vantagem significativa de distribuição no mercado de assistentes de IA.
A Nvidia revelou a plataforma Vera Rubin na CES 2026, posicionando-a como sucessora da Blackwell. A plataforma integra seis chips em um supercomputador para entregar inferência cinco vezes mais rápida e treinamento 3,5 vezes mais rápido que a Blackwell, enquanto reduz o custo por token em um fator de dez. A Vera Rubin está em produção completa e terá aumento de escala no segundo semestre de 2026, com os principais provedores de nuvem já comprometidos com a implantação.
Os chips Vera Rubin são projetados para lidar com cargas computacionais em larga escala necessárias para criar simulações da realidade para treinamento de modelos. O CEO da Nvidia, Jensen Huang, discutiu o trabalho com veículos autônomos na CES 2026, com a Mercedes-Benz planejando lançar carros equipados com tecnologia de direção autônoma da Nvidia este ano.
A Nvidia também apresentou o Alpamayo, um modelo de IA de código aberto com 10 bilhões de parâmetros para veículos autônomos. O sistema permite que carros autônomos raciocinem através de cenários complexos como semáforos que não funcionam e pode explicar decisões de direção passo a passo em vez de apenas reagir. A primeira implantação será no Mercedes-Benz CLA lançado na Europa no início de 2026 com um sistema de segurança de backup. O Alpamayo usa arquiteturas de visão-linguagem-ação baseadas em raciocínio para lidar com cenários raros em sistemas de veículos autônomos de ponta a ponta.
A AMD anunciou o chip MI440X para data centers corporativos menores, com o sistema Helios baseado neste chip sendo lançado ainda em 2026. Os processadores da série MI500 da AMD estrearão em 2027, prometendo até 1.000 vezes o desempenho da série MI300 de 2023.
O robô humanoide Atlas da Boston Dynamics entrou em produção, com as primeiras implantações indo para Hyundai e Google DeepMind. A versão elétrica tem 1,88 metros de altura, pode levantar até 50 quilos, usa sensoriamento tátil para ajuste de pegada e funciona por cerca de quatro horas com bateria substituível. O Atlas de produção pode operar de forma autônoma, via teleoperador ou com direcionamento por tablet, com alcance de 2,3 metros para realizar tarefas industriais. A Hyundai planeja implantar o Atlas em fábricas a partir de 2028 e pretende produzir cerca de 30.000 unidades por ano.
A Liquid AI lançou o LFM2.5, uma família de modelos de pesos abertos projetada para IA em dispositivos sem dependência de nuvem. A linha inclui variantes de texto, visão, áudio e idioma japonês. O modelo de áudio é oito vezes mais rápido que seu predecessor, e o modelo de texto de 1,2 bilhão de parâmetros supera o Llama 3.2 e o Gemma 3 em benchmarks de seguimento de instruções, uso de ferramentas e matemática.
A MiniMax lançou o M2.1, um modelo de codificação multilíngue e multitarefa com arquitetura de mistura de especialistas de 10 bilhões ativos / 230 bilhões totais de parâmetros. O modelo de código aberto alcança desempenho de ponta em benchmarks de codificação incluindo SWE, VIBE e Multi-SWE, superando o Gemini 3 Pro e o Claude Sonnet 4.5. No Code Arena, o M2.1 ocupa o primeiro lugar entre modelos de código aberto e sexto no geral.
Uma engenheira do Google relatou que o Claude Code da Anthropic construiu um sistema de orquestração de agentes distribuídos em aproximadamente uma hora a partir de um prompt de três parágrafos, trabalho que sua equipe havia levado um ano desenvolvendo. O resultado não está pronto para produção, mas serve como um ponto de partida útil.
TOON, um novo formato de dados para prompts de LLM, comprime JSON em 40% enquanto melhora a precisão. Ele usa indentação no estilo YAML com tabelas no estilo CSV e alcançou 21.000 estrelas no GitHub com implementações em Python, Rust e Go.
A OpenAI reporta que 40 milhões de pessoas usam o ChatGPT para saúde diariamente, representando 5% de todas as mensagens. Usuários fazem 1,9 milhão de perguntas sobre seguros por semana, com 70% das conversas sobre saúde ocorrendo fora do horário de clínicas. A OpenAI está atualizando o GPT-5 para fazer mais perguntas de acompanhamento e fornecer respostas mais cautelosas em contextos médicos.
Pesquisas sobre Modelos de Linguagem Recursivos mostram que usar código para gerenciar ativamente a memória e delegar tarefas a subagentes mantém os modelos focados e eficientes ao processar grandes quantidades de dados. Pesquisas sobre mecanismos de reutilização de planos demonstram que reciclar estruturas de planos passados com detalhes atualizados reduz tempos de espera em mais de 93%.
A Otimização de Política Relativa de Grupo (GRPO) é o otimizador de aprendizado por reforço usado para treinar a maioria dos modelos de raciocínio de código aberto. A análise identificou problemas sutis no GRPO básico que podem dificultar o treinamento de aprendizado por reforço em escala, com soluções fornecidas para abordar essas deficiências.
A DeepSeek publicou pesquisa introduzindo Hiper-Conexões Restritas por Variedade (mHC), uma estrutura de treinamento que permite aos pesquisadores treinar modelos de IA maiores com segurança ao restringir como a informação se move entre camadas. A estrutura aborda falhas no meio do treinamento que ocorrem quando modelos de IA aumentam de escala e sinais entre camadas saem de controle. A estrutura mHC foi testada em modelos de até 27 bilhões de parâmetros.
A Meta adquiriu a Manus por aproximadamente US$ 2-3 bilhões, destacando a importância do lucro bruto por token como métrica de avaliação. DeepSeek e Together AI mostram os múltiplos mais baixos como revendedores de inferência, enquanto a Perplexity alcança o mais alto com 222x como aplicação.
Yann LeCun, Cientista-Chefe de IA na Meta por mais de 10 anos e vencedor do Prêmio Turing, deixou a empresa e criticou publicamente sua estratégia de IA. Ele está lançando a Advanced Machine Intelligence Labs, focada em modelos de mundo, sistemas que entendem o mundo físico em vez de apenas padrões de linguagem. A Meta investiu US$ 15 bilhões na Scale AI para pesquisa em superinteligência e contratou Alexandr Wang como CEO.
A OpenAI e o Departamento de Energia dos EUA assinaram um memorando de entendimento para colaborar em IA e computação avançada para pesquisa científica, incluindo a Missão Genesis. O acordo se baseia em implantações existentes de modelos de IA de fronteira dentro dos laboratórios nacionais do DOE.
A Nvidia fechou um acordo de licenciamento não exclusivo com a startup de chips de IA Groq, trazendo seu fundador e principais executivos a bordo enquanto mantém a Groq independente. O acordo reflete o crescente foco da indústria na otimização de inferência de IA.
Quer mais atualizações de IA?
Visite https://www.bosq.dev/blog para mais posts como este, além de guias práticos e links curados. Se este resumo foi útil, compartilhe com alguém do seu time.
Referências:
- https://www.aboutamazon.com/news/devices/new-alexa-generative-artificial-intelligence
- https://news.samsung.com/global/video-samsung-outlines-ai-vision-at-the-first-look-2026-press-conference
Tags: #AlexaPlus #VeículosAutônomos #HardwareDeIA #VeraRubin #Nvidia #BostonDynamics #RobôAtlas #ChipsDeIA #IADeCódigoAberto #ModelosDeRaciocínio #InferênciaDeIA #EdgeAI #AmazonAI #CarrosAutônomos #RobôsHumanoides