⬡ Projeto Open Source — Jaraguá do Sul, Brasil

HELI OS

Transformando smartphones descartados em uma rede planetária de computação para Inteligência Artificial.

Entender o Projeto Ser um Nó
0
Smartphones descartados/ano
0
Para rodar LLM 70B (Q4)
0
Open Source & Comunitário
Explorar

IA centralizada tem um custo invisível

Os grandes modelos de linguagem exigem data centers imensos, consumindo energia equivalente a cidades inteiras. Ao mesmo tempo, bilhões de smartphones são descartados anualmente — cada um carregando processadores gráficos e motores neurais poderosos, simplesmente ignorados.

HeliOS propõe a inversão: em vez de construir mais servidores, aproveitamos o hardware que já existe — distribuído, sustentável, comunitário.

CENTRALIZADO DATA CENTER 📱 usr 📱 usr 📱 usr ⚠ PONTO ÚNICO DISTRIBUÍDO COORDI- NADOR 📱 nó 1 G4 · Q4 📱 nó 2 S21 · Q4 📱 nó 3 A52 · Q4 📱 nó 4 Moto · Q4 tensor ✓ RESILIENTE

Quatro camadas, uma rede

Do smartphone descartado à resposta do modelo — cada peça do HeliOS é projetada para ser simples, auditável e substituível.

📱
1
Nó Ativo

Smartphone com LineageOS ou PostmarketOS executa o agente HeliOS. Carrega o modelo quantizado (GGUF Q4) na memória e aguarda tarefas.

🛰️
2
Heartbeat

A cada 30 segundos, o nó reporta CPU, temperatura, RAM e rede ao Coordinator. O servidor sabe quem está disponível em tempo real.

3
Inferência

O nó recebe um prompt, executa o llama.cpp localmente com os pesos do modelo quantizado, e retorna os tokens gerados com métricas de desempenho.

4
Créditos

Cada token gerado com sucesso rende créditos ao utilizador do nó. Transparente, auditável, registrado no ledger do Coordinator.

Projetado para escalar

Camada de Compute
Model Sharding por Camadas

Um LLM de 70B com 80 transformer layers pode ser dividido em 10 shards de 8 layers cada. Cada nó processa seu fragmento e passa os tensores adiante — pipeline parallelism distribuído em hardware de consumo.

Camada de Rede
Coordinator + Nós

O servidor Coordinator (Debian/nginx/PHP) atua como Supernode — distribui tarefas, coleta métricas via heartbeat e mantém o ledger de créditos. Os nós se registram com uma node_key única e recebem jobs via API REST.

Camada de Economia
Créditos por Inferência

Sem blockchain. Sem token. Um sistema simples de créditos proporcional aos tokens gerados — transparente, auditável em SQL, e suficiente para incentivar contribuições comunitárias.

Camada de Verificação
Checksums & Redundância

Tarefas críticas são replicadas em k nós. Os resultados são comparados por checksum. Nós inconsistentes perdem reputação. Simples e eficaz para redes de confiança comunitária.

HELIOS · STACK DE COMPONENTES
APLICAÇÃO API REST · Dashboard · SDK ORQUESTRAÇÃO (COORDINATOR) Scheduler · Node Registry · Ledger REDE HTTP/JSON · Heartbeat · SSH NÓS DE COMPUTAÇÃO 📱 Moto G4 Snapdragon 617 2GB · CPU-only 📱 Galaxy S9 Snapdragon 845 6GB · GPU assist 📱 Pixel 6 Tensor G1 + TPU 8GB · NPU ✓ MODELO (llama.cpp) GGUF Q4_K_M · TinyLlama → LLaMA3

Stack 100% Open Source

🧠
Inferência Local

llama.cpp roda modelos GGUF diretamente no CPU/GPU do smartphone, sem dependência de cloud. Quantização 4-bit permite modelos 3B em 2GB de RAM.

llama.cpp GGUF Q4 TinyLlama
📡
Coordinator API

Servidor central em PHP 8.4 + MariaDB sobre nginx gerencia o registro de nós, distribuição de tarefas e o ledger de créditos. Leve, auditável, sem frameworks.

PHP 8.4 MariaDB nginx PDO
📱
HeliOS Firmware

LineageOS com agente shell (Termux) para prototipagem rápida. Roadmap: PostmarketOS + Alpine Linux para boot dedicado em ~8 segundos e ~180MB RAM idle.

LineageOS PostmarketOS Alpine Linux
🖥️
Node Dashboard

Interface visual do nó em HTML puro — gráficos em tempo real de CPU, temperatura, rede e créditos. Tema terminal retro-futurista. Serve localmente via nginx no Termux.

HTML5 Canvas API SSE
🔒
Verificação

Tarefas replicadas em múltiplos nós com comparação de checksums. Sistema de reputação por consistência. Sem blockchain — auditoria simples em SQL.

Checksum Reputação Audit Log
Sharding

Modelos maiores que a RAM de um único nó são divididos em blocos de transformer layers. Os tensores fluem sequencialmente entre nós — pipeline parallelism real.

Layer Sharding Tensor Flow Pipeline

Qualquer smartphone serve

Quanto mais potente, mais créditos. Mas até o Moto G4 — lançado em 2016 — já é um nó funcional para modelos de 1 a 3 bilhões de parâmetros.

O suporte a NPU (Neural Processing Unit) multiplica a velocidade de inferência em até 10x, sem aumentar o consumo de energia.

Dispositivo SoC / NPU RAM Tier
Pixel 6/7/8 Tensor G1/G2/G3 + TPU 8–12 GB S
Galaxy S21+ Snapdragon 888 + Hexagon 8–12 GB S
OnePlus 8/9 SD 865/888 + Adreno 8–12 GB A
Moto G9/G30 SD 662 · sem NPU 4–6 GB B
Moto G4 SD 617 · sem NPU 2 GB C

★ Dispositivo atual de prototipagem do projeto

Seja parte da rede

HeliOS está em fase de prototipagem ativa. Procuramos desenvolvedores, entusiastas de hardware e qualquer pessoa com um smartphone descartado e vontade de fazer algo útil com ele.

📱
Nó Computador

Tem um smartphone parado? Instale o HeliOS Agent e contribua com processamento para a rede. Cada token gerado rende créditos.

⌨️
Desenvolvedor

PHP, shell, Android, embedded systems — qualquer skill é bem-vinda. Sharding, firmware PostmarketOS, e o dashboard ainda têm muito a evoluir.

📡
Infraestrutura

Servidor com IP fixo? Pode ser um Supernode regional, coordenando clusters locais e melhorando a latência da rede na sua região.