Integre Brainiall no seu app em Python ou Node.js
A API da Brainiall é OpenAI-compatible
Se você já sabe fazer request pra API da OpenAI, sabe pra Brainiall. Mudam só 2 coisas:
1. Base URL: https://api.brainiall.com/v1 (em vez de https://api.openai.com/v1)
2. API Key: format brnl-... (em vez de sk-...)
Tudo mais é idêntico. Seu código existente funciona trocando esses dois valores.

Passo 1: criar sua API key
1. Acesse https://app.brainiall.com
2. Login com Google (se primeira vez)
3. Menu → API Keys → "Criar nova"
4. Dê um nome descritivo ("minha-app-prod" ou similar)
5. Copie a key — ela só aparece uma vez, guarde bem
Pro R$29 tem 1 key ativa; Business inclui créditos + múltiplas keys + rotação.
Passo 2: Python com httpx
`python
import httpx
BASE = "https://api.brainiall.com/v1"
KEY = "brnl-d13..." # sua key
def chat(prompt, model="claude-sonnet-4-6"):
r = httpx.post(
f"{BASE}/chat/completions",
json={
"model": model,
"messages": [{"role": "user", "content": prompt}]
},
headers={"Authorization": f"Bearer {KEY}"},
timeout=60
)
r.raise_for_status()
return r.json()["choices"][0]["message"]["content"]
print(chat("Explique TLS em 2 frases."))`
Passo 3: Python com SDK oficial OpenAI
`python
from openai import OpenAI
client = OpenAI(
base_url="https://api.brainiall.com/v1",
api_key="brnl-xxx"
)
r = client.chat.completions.create(
model="claude-sonnet-4-6",
messages=[{"role": "user", "content": "Olá!"}]
)
print(r.choices[0].message.content)`
O SDK OpenAI funciona 100% — suportamos streaming, function calling, tool_use, vision, todos os padrões OpenAI.
Passo 4: Node.js
`javascript
import OpenAI from 'openai';
const client = new OpenAI({
baseURL: 'https://api.brainiall.com/v1',
apiKey: 'brnl-xxx'
});
const r = await client.chat.completions.create({
model: 'claude-sonnet-4-6',
messages: [{ role: 'user', content: 'Olá!' }]
});
console.log(r.choices[0].message.content);`
🎧 Ouça a narração completa (vídeo demo em produção)
Modelos disponíveis
Use o endpoint /v1/models para listar em tempo real:
`python
r = httpx.get(f"{BASE}/models", headers={"Authorization": f"Bearer {KEY}"})
for m in r.json()["data"]:
print(m["id"])`
Categorias:
- Text: claude-sonnet-4-6, gpt-5, gemini-3-pro, llama-4-maverick, deepseek-v3, etc.
- Image: gemini-3-flash-image, gpt-5-image, flux-2-klein, seedream-4.5
- Video (endpoint separado /v1/videos): bytedance/seedance-2.0-fast
- TTS (endpoint /v1/audio/speech): 54 vozes
- STT (endpoint /v1/audio/transcriptions): Whisper Large v3
Streaming (server-sent events)
`python
with httpx.stream("POST", f"{BASE}/chat/completions", ...
json={"model": "...", "messages": [...], "stream": True}
) as r:
for line in r.iter_lines():
if line.startswith("data: "):
# parse chunk JSON
...`
Streaming reduz latência percebida drasticamente — tokens aparecem conforme geração em vez de esperar resposta completa.
Rate limits e boas práticas
- Free tier API: não existe — API requer plano Pro ou Business
- Pro R$29: inclui chat + image via portal, API paga por uso
- Business R$99: R$50/mês em créditos API já incluídos
- Retry: use backoff exponencial para 429/5xx
- Cache: guarde respostas determinísticas localmente
- Timeout: 60s é seguro; para tarefas longas como vídeo, 300s
Armadilhas comuns
- Esquecer o
Bearerantes da key → 401 - Hardcoding da key no código → leak eventual em git push; use env vars
- Não tratar 429 → aplicação para
- Ignorar
usageno response → surpresa no billing - Usar modelo errado para tarefa simples → custo 10x desnecessário
Teste agora mesmo
Crie sua key em https://app.brainiall.com e rode um dos exemplos acima. Pro R$29 é o mínimo para acessar API; Business R$99 inclui créditos suficientes para começar.