A Tether está mirando a vantagem competitiva das gigantes da tecnologia em hardware de IA com uma estrutura que promete reduzir o treinamento de modelos com bilhões de parâmetros a algo que seu celular consiga processar.
A Tether lança a estrutura de IA Bitnet para smartphones, eliminando a necessidade de GPUs da Nvidia

Estrutura de IA da Tether reduz o uso de VRAM em mais de 70% e expande a computação de ponta
Na terça-feira, a Tether revelou uma estrutura multiplataforma de ajuste fino LoRA para os modelos Bitnet da Microsoft, apresentando o que descreveu como o primeiro sistema capaz de treinar e executar modelos de linguagem de grande porte de 1 bit em dispositivos de consumo, incluindo smartphones e laptops.
O lançamento faz parte da pilha QVAC Fabric da Tether e foi projetado para reduzir as pesadas demandas de computação e memória normalmente associadas ao desenvolvimento de inteligência artificial, que tem se limitado em grande parte a provedores de nuvem e hardware de ponta da Nvidia.
Ao oferecer suporte a hardware heterogêneo — incluindo chips da Intel, AMD e Apple, bem como GPUs móveis —, a estrutura permite que desenvolvedores ajustem modelos localmente sem depender de infraestrutura centralizada.
Na prática, isso significa que cargas de trabalho de IA antes reservadas para data centers agora podem ser executadas em dispositivos que cabem em uma mochila ou no bolso, uma mudança que pode reduzir custos e ampliar o acesso para desenvolvedores nos Estados Unidos e em todo o mundo.
A Tether afirmou que seus engenheiros demonstraram com sucesso o ajuste fino do Bitnet em GPUs móveis, incluindo chips Adreno, Mali e Apple Bionic, marcando uma estreia para a arquitetura emergente de modelos de 1 bit.
Os benchmarks de desempenho divulgados pela empresa mostram que um modelo de 125 milhões de parâmetros pode ser ajustado em cerca de 10 minutos em um dispositivo Samsung S25, enquanto um modelo de 1 bilhão de parâmetros conclui a mesma tarefa em aproximadamente 1 hora e 18 minutos no mesmo hardware.
Em dispositivos Apple, a empresa relatou resultados semelhantes, com um modelo de 1 bilhão de parâmetros ajustado em aproximadamente 1 hora e 45 minutos em um iPhone 16, e execuções experimentais levando modelos de até 13 bilhões de parâmetros no próprio dispositivo.
A estrutura também apresentou ganhos mensuráveis na velocidade de inferência, com GPUs móveis oferecendo entre duas e 11 vezes o desempenho das CPUs, de acordo com os benchmarks internos da Tether.
A eficiência de memória é outro ponto-chave de venda, com o Bitnet-1B usando até 77,8% menos VRAM do que modelos comparáveis de 16 bits e mais de 65% menos do que outras arquiteturas amplamente utilizadas, permitindo que modelos maiores sejam executados em hardware limitado.
A Tether afirmou que o sistema também permite o ajuste fino do LoRA em hardware não Nvidia pela primeira vez nesta categoria, uma iniciativa que poderia reduzir a dependência de chips especializados e serviços em nuvem, mantendo dados confidenciais armazenados localmente nos dispositivos dos usuários.
A empresa acrescentou que a abordagem poderia tornar o aprendizado federado mais prático, permitindo que modelos sejam treinados em dispositivos distribuídos sem centralizar dados, uma área de crescente interesse no desenvolvimento de IA com foco na privacidade.

A Ripple expande-se agressivamente no Brasil e visa o domínio do mercado de criptomoedas no setor institucional
A Ripple acelera uma expansão abrangente pelo sistema financeiro brasileiro, posicionando-se no centro da infraestrutura institucional de criptomoedas como read more.
Leia agora
A Ripple expande-se agressivamente no Brasil e visa o domínio do mercado de criptomoedas no setor institucional
A Ripple acelera uma expansão abrangente pelo sistema financeiro brasileiro, posicionando-se no centro da infraestrutura institucional de criptomoedas como read more.
Leia agora
A Ripple expande-se agressivamente no Brasil e visa o domínio do mercado de criptomoedas no setor institucional
Leia agoraA Ripple acelera uma expansão abrangente pelo sistema financeiro brasileiro, posicionando-se no centro da infraestrutura institucional de criptomoedas como read more.
“Ao possibilitar o treinamento significativo de modelos de grande porte em hardware de consumo, incluindo smartphones, o QVAC da Tether está provando que a IA avançada pode ser descentralizada, inclusiva e empoderadora para todos”, afirmou o CEO da Tether, Paolo Ardoino, em comunicado, acrescentando que a empresa planeja continuar investindo em infraestrutura de IA no dispositivo.
O comunicado técnico, incluindo benchmarks e detalhes de implementação, foi publicado através do Hugging Face, sinalizando um esforço para alcançar diretamente os desenvolvedores, em vez de restringir a tecnologia por trás de sistemas proprietários.
Perguntas frequentes 🔎
- O que é a nova estrutura de IA da Tether?
O QVAC Fabric da Tether apresenta um sistema multiplataforma para treinar e executar modelos de IA da Bitnet em dispositivos de consumo, como telefones e laptops. - Os smartphones podem realmente treinar modelos de IA?
Sim, os benchmarks da Tether mostram que modelos com bilhões de parâmetros podem ser ajustados em dispositivos como o Samsung S25 e o iPhone 16 em poucas horas. - Por que isso é importante para desenvolvedores dos EUA?
Isso reduz a dependência de infraestruturas de nuvem caras e GPUs especializadas, diminuindo custos e ampliando o acesso ao desenvolvimento de IA. - O que diferencia o Bitnet de outros modelos?
O BitNet utiliza uma arquitetura de 1 bit que reduz significativamente o uso de memória e melhora a eficiência em comparação com os modelos tradicionais de 16 bits.
Tags nesta história
Escolhas de Jogos Bitcoin
425% até 5 BTC + 100 Rodadas Grátis















