Transformando smartphones descartados em uma rede planetária de computação para Inteligência Artificial.
Os grandes modelos de linguagem exigem data centers imensos, consumindo energia equivalente a cidades inteiras. Ao mesmo tempo, bilhões de smartphones são descartados anualmente — cada um carregando processadores gráficos e motores neurais poderosos, simplesmente ignorados.
HeliOS propõe a inversão: em vez de construir mais servidores, aproveitamos o hardware que já existe — distribuído, sustentável, comunitário.
Do smartphone descartado à resposta do modelo — cada peça do HeliOS é projetada para ser simples, auditável e substituível.
Smartphone com LineageOS ou PostmarketOS executa o agente HeliOS. Carrega o modelo quantizado (GGUF Q4) na memória e aguarda tarefas.
A cada 30 segundos, o nó reporta CPU, temperatura, RAM e rede ao Coordinator. O servidor sabe quem está disponível em tempo real.
O nó recebe um prompt, executa o llama.cpp localmente com os pesos do modelo quantizado, e retorna os tokens gerados com métricas de desempenho.
Cada token gerado com sucesso rende créditos ao utilizador do nó. Transparente, auditável, registrado no ledger do Coordinator.
Um LLM de 70B com 80 transformer layers pode ser dividido em 10 shards de 8 layers cada. Cada nó processa seu fragmento e passa os tensores adiante — pipeline parallelism distribuído em hardware de consumo.
O servidor Coordinator (Debian/nginx/PHP) atua como Supernode — distribui tarefas, coleta métricas via heartbeat e mantém o ledger de créditos. Os nós se registram com uma node_key única e recebem jobs via API REST.
Sem blockchain. Sem token. Um sistema simples de créditos proporcional aos tokens gerados — transparente, auditável em SQL, e suficiente para incentivar contribuições comunitárias.
Tarefas críticas são replicadas em k nós. Os resultados são comparados por checksum. Nós inconsistentes perdem reputação. Simples e eficaz para redes de confiança comunitária.
llama.cpp roda modelos GGUF diretamente no CPU/GPU do smartphone, sem dependência de cloud. Quantização 4-bit permite modelos 3B em 2GB de RAM.
Servidor central em PHP 8.4 + MariaDB sobre nginx gerencia o registro de nós, distribuição de tarefas e o ledger de créditos. Leve, auditável, sem frameworks.
LineageOS com agente shell (Termux) para prototipagem rápida. Roadmap: PostmarketOS + Alpine Linux para boot dedicado em ~8 segundos e ~180MB RAM idle.
Interface visual do nó em HTML puro — gráficos em tempo real de CPU, temperatura, rede e créditos. Tema terminal retro-futurista. Serve localmente via nginx no Termux.
Tarefas replicadas em múltiplos nós com comparação de checksums. Sistema de reputação por consistência. Sem blockchain — auditoria simples em SQL.
Modelos maiores que a RAM de um único nó são divididos em blocos de transformer layers. Os tensores fluem sequencialmente entre nós — pipeline parallelism real.
Quanto mais potente, mais créditos. Mas até o Moto G4 — lançado em 2016 — já é um nó funcional para modelos de 1 a 3 bilhões de parâmetros.
O suporte a NPU (Neural Processing Unit) multiplica a velocidade de inferência em até 10x, sem aumentar o consumo de energia.
| Dispositivo | SoC / NPU | RAM | Tier |
|---|---|---|---|
| Pixel 6/7/8 | Tensor G1/G2/G3 + TPU | 8–12 GB | S |
| Galaxy S21+ | Snapdragon 888 + Hexagon | 8–12 GB | S |
| OnePlus 8/9 | SD 865/888 + Adreno | 8–12 GB | A |
| Moto G9/G30 | SD 662 · sem NPU | 4–6 GB | B |
| Moto G4 ★ | SD 617 · sem NPU | 2 GB | C |
★ Dispositivo atual de prototipagem do projeto
HeliOS está em fase de prototipagem ativa. Procuramos desenvolvedores, entusiastas de hardware e qualquer pessoa com um smartphone descartado e vontade de fazer algo útil com ele.