Ana Brainiall

Integre Brainiall no seu app em Python ou Node.js

intermediario · 10 min · Por Ana Brainiall

A API da Brainiall é OpenAI-compatible

Se você já sabe fazer request pra API da OpenAI, sabe pra Brainiall. Mudam só 2 coisas:

1. Base URL: https://api.brainiall.com/v1 (em vez de https://api.openai.com/v1)
2. API Key: format brnl-... (em vez de sk-...)

Tudo mais é idêntico. Seu código existente funciona trocando esses dois valores.

diagrama simples mostrando uma lib OpenAI SDK sendo configurada com 2 overrides

Passo 1: criar sua API key

1. Acesse https://app.brainiall.com
2. Login com Google (se primeira vez)
3. Menu → API Keys → "Criar nova"
4. Dê um nome descritivo ("minha-app-prod" ou similar)
5. Copie a key — ela só aparece uma vez, guarde bem

Pro R$29 tem 1 key ativa; Business inclui créditos + múltiplas keys + rotação.

Passo 2: Python com httpx

`python
import httpx

BASE = "https://api.brainiall.com/v1"
KEY = "brnl-d13..." # sua key

def chat(prompt, model="claude-sonnet-4-6"):
r = httpx.post(
f"{BASE}/chat/completions",
json={
"model": model,
"messages": [{"role": "user", "content": prompt}]
},
headers={"Authorization": f"Bearer {KEY}"},
timeout=60
)
r.raise_for_status()
return r.json()["choices"][0]["message"]["content"]

print(chat("Explique TLS em 2 frases."))
`

Passo 3: Python com SDK oficial OpenAI

`python
from openai import OpenAI

client = OpenAI(
base_url="https://api.brainiall.com/v1",
api_key="brnl-xxx"
)

r = client.chat.completions.create(
model="claude-sonnet-4-6",
messages=[{"role": "user", "content": "Olá!"}]
)
print(r.choices[0].message.content)
`

O SDK OpenAI funciona 100% — suportamos streaming, function calling, tool_use, vision, todos os padrões OpenAI.

Passo 4: Node.js

`javascript
import OpenAI from 'openai';

const client = new OpenAI({
baseURL: 'https://api.brainiall.com/v1',
apiKey: 'brnl-xxx'
});

const r = await client.chat.completions.create({
model: 'claude-sonnet-4-6',
messages: [{ role: 'user', content: 'Olá!' }]
});
console.log(r.choices[0].message.content);
`

Ilustração do curso

🎧 Ouça a narração completa (vídeo demo em produção)

Modelos disponíveis

Use o endpoint /v1/models para listar em tempo real:

`python
r = httpx.get(f"{BASE}/models", headers={"Authorization": f"Bearer {KEY}"})
for m in r.json()["data"]:
print(m["id"])
`

Categorias:
- Text: claude-sonnet-4-6, gpt-5, gemini-3-pro, llama-4-maverick, deepseek-v3, etc.
- Image: gemini-3-flash-image, gpt-5-image, flux-2-klein, seedream-4.5
- Video (endpoint separado /v1/videos): bytedance/seedance-2.0-fast
- TTS (endpoint /v1/audio/speech): 54 vozes
- STT (endpoint /v1/audio/transcriptions): Whisper Large v3

Streaming (server-sent events)

`python
with httpx.stream("POST", f"{BASE}/chat/completions", ...
json={"model": "...", "messages": [...], "stream": True}
) as r:
for line in r.iter_lines():
if line.startswith("data: "):
# parse chunk JSON
...
`

Streaming reduz latência percebida drasticamente — tokens aparecem conforme geração em vez de esperar resposta completa.

Rate limits e boas práticas

Armadilhas comuns

Teste agora mesmo

Crie sua key em https://app.brainiall.com e rode um dos exemplos acima. Pro R$29 é o mínimo para acessar API; Business R$99 inclui créditos suficientes para começar.

🎁 Indique amigos, ganhe mês grátis

Cada 3 indicados que assinam Pro = R$29 de crédito no seu próximo ciclo.

Ver meu código →