Saltar al contenido principal

Expansão da Infraestrutura de IA: Meta Compute, Integração Militar e Inovação em Hardware

notícia

A Meta anunciou o Meta Compute, uma grande iniciativa de infraestrutura com meta de dezenas de gigawatts de capacidade computacional nesta década e centenas de gigawatts ao longo do tempo. O projeto opera sob três executivos-chave: Santosh Janardhan gerenciando arquitetura técnica e operações de rede, Daniel Gross cuidando de parcerias estratégicas e desenvolvimento de modelo de negócios, e Dina Powell McCormick supervisionando parcerias governamentais e soberanas para financiamento de infraestrutura.

Isso posiciona a Meta ao lado da Amazon Web Services, Microsoft Azure, Google Cloud e Oracle Cloud Infrastructure como as únicas empresas operando infraestrutura computacional em escala de gigawatts. Esses hiperscalers geraram coletivamente aproximadamente US$ 300 bilhões anuais em 2024 com serviços em nuvem. A Meta financia essa expansão através de otimização de custos, incluindo mais de 1.000 demissões no Meta Reality Labs, com uma estratégia de contingência para monetizar capacidade excedente através de aluguéis para terceiros.

O exército dos EUA está integrando a ferramenta de IA Grok, de Elon Musk, nas redes do Pentágono, tanto classificadas quanto não classificadas, ainda este mês como parte de uma estratégia de aceleração de IA. Isso marca uma mudança significativa na adoção militar de IA, trazendo modelos de linguagem grandes comerciais para a infraestrutura de defesa.

A OpenAI está desenvolvendo múltiplos dispositivos de hardware com fabricação garantida até 2028. O primeiro produto, codinome Sweetpea, é um dispositivo de áudio alimentado por IA projetado pela equipe de Jony Ive como alternativa aos AirPods da Apple. O dispositivo apresenta um núcleo metálico em forma de ovo com módulos destacáveis e pode funcionar com um processador de 2nm. A OpenAI projeta enviar até 50 milhões de unidades no primeiro ano, com possível lançamento em setembro.

A Apple anunciou que usará o Gemini do Google para alimentar recursos de IA, com capacidade de ajustar o modelo de forma independente sem marca Google ou Gemini. Alguns recursos serão lançados na primavera, com capacidades mais avançadas esperadas na conferência de desenvolvedores da Apple em junho. A Apple também lançou o Creator Studio, uma assinatura mensal de US$ 12,99 que agrupa Final Cut Pro, Logic Pro, Pixelmator Pro, Motion, Compressor e MainStage, com novos recursos de IA incluindo Busca Visual no Final Cut Pro e Preenchimento Mágico no Numbers.

A Meta e a EssilorLuxottica estão discutindo dobrar a capacidade de produção dos óculos inteligentes Ray-Ban para 20 milhões de unidades ou mais até o final do ano, com potencial para escalar além de 30 milhões de unidades. Isso sinaliza confiança de que os óculos inteligentes podem atingir escala de mercado de massa além dos early adopters.

A Anthropic expandiu o Anthropic Labs, uma incubadora interna para produtos experimentais no limite das capacidades do Claude. O cofundador do Instagram Mike Krieger se juntou para coliderar a iniciativa, enquanto Ami Vora liderará a organização de produtos ao lado do CTO Rahul Patil. Sucessos recentes incluem o crescimento de bilhões de dólares do Claude Code e o Model Context Protocol se tornando um padrão da indústria.

O Claude construiu sua nova ferramenta, Claude Cowork, em aproximadamente 10 dias, com todo o trabalho de codificação realizado pelo próprio Claude. Múltiplas instâncias do Claude escreveram recursos, corrigiram bugs e pesquisaram soluções enquanto humanos focaram no design e direção geral. O Cowork é um agente de IA que pode acessar arquivos específicos no computador do usuário, ler, escrever e reorganizar arquivos automaticamente, limpar caixas de entrada e pastas, gerar relatórios a partir de notas e capturas de tela dispersas, e executar fluxos de trabalho de múltiplas etapas em diferentes ferramentas.

A DeepSeek lançou o Engram, uma técnica que armazena conhecimento estático na RAM regular do sistema em vez de memória cara de alta largura de banda, alcançando 97% de precisão em tarefas de contexto longo versus 84% para modelos padrão. A arquitetura introduz um sistema de memória condicional usando tabelas de consulta para padrões comuns de N-gramas, reduzindo significativamente a sobrecarga computacional enquanto libera recursos neurais para raciocínio complexo.

O MIT e a Amorepacific desenvolveram o Skinsight, um sensor vestível ultrafino em forma de adesivo que rastreia firmeza da pele, exposição UV, temperatura e umidade em nível micrométrico usando sensores piezotrônicos. A IA prevê onde as rugas se formarão e recomenda produtos com base em dados de pele em tempo real.

O Google atualizou o Veo 3.1 com novos recursos para geração de vídeo, incluindo entradas de imagem de referência, saídas verticais nativas 9:16 para dispositivos móveis e upscales de alta resolução para 1080p e 4K. O Google também lançou o MedGemma 1.5 para interpretação de imagens médicas e o MedASR para conversão de fala em texto, expandindo suas Health AI Developer Foundations.

A Zhipu lançou o GLM-Image, um modelo de geração de imagens discreto autorregressivo de grau industrial de código aberto com arquitetura híbrida combinando um módulo autorregressivo com um decodificador de difusão. O modelo se destaca na renderização de texto e cenários de geração intensivos em conhecimento, particularmente em tarefas que requerem expressão semântica precisa e informações complexas. O GLM-Image é o primeiro modelo na China treinado usando chips de IA Ascend da Huawei e processadores Kunpeng.

A OpenAI adquiriu a startup de saúde Torch por aproximadamente US$ 100 milhões para integrar registros de saúde unificados no ChatGPT Health. A Torch combina instantâneos isolados de dados de saúde em uma única linha do tempo contínua, permitindo que o ChatGPT Health rastreie mudanças em medicamentos e resultados de exames ao longo do tempo.

O contexto está emergindo como um diferencial competitivo chave em aplicações de IA. Equipes usando o mesmo modelo podem alcançar resultados diferentes com base no conhecimento estruturado que fornecem. A IA física enfrenta uma lacuna significativa de implantação: sistemas que funcionam 95% do tempo em laboratórios podem cair para 60% de confiabilidade em condições do mundo real, enquanto a produção requer 99,9% de confiabilidade. Essa lacuna requer nova infraestrutura e ferramentas em vez de apenas avanços em pesquisa.

Novas plataformas de agentes de IA estão surgindo, incluindo Cowork para acesso a arquivos locais e execução de tarefas, Atoms para desenvolvimento de aplicações full-stack, e Alpine como um espaço de trabalho tudo-em-um combinando documentos, tarefas, chat e agentes de IA com contexto compartilhado. A Shopify anunciou o Universal Commerce Protocol com o Google, permitindo que agentes de IA alcancem comerciantes através do AI Mode no Google Search, Gemini e Microsoft Copilot.

O mercado global de datacenters está projetado para atingir US$ 3 trilhões até 2030, impulsionado por IA, computação em nuvem e digitalização de serviços. O projeto Stargate da OpenAI com Oracle e SoftBank, e o projeto Colossus da xAI representam as únicas outras empresas fazendo investimentos comparáveis em datacenters fora dos principais hiperscalers.


Quer mais atualizações de IA?

Visite https://www.bosq.dev/blog para mais posts como este, além de guias práticos e links curados. Se este resumo foi útil, compartilhe com alguém do seu time.


Referências:


Tags: #InfraestruturaIA #MetaCompute #IAEmpresarial #HardwareIA #ComputacaoNuvem #AprendizadoMaquina #ImplantacaoIA #InvestimentoDatacenter #AgentesIA #IAProducao #AdocaoIA #CapacidadeComputacional