Brainiall'ı Python veya Node.js uygulamanıza entegre edin
Brainiall API'si OpenAI ile uyumludur
OpenAI API'sine istek atmayı biliyorsanız, Brainiall için de biliyorsunuz demektir. Yalnızca 2 şey değişir:
1. Base URL: https://api.brainiall.com/v1 (https://api.openai.com/v1 yerine)
2. API Key: brnl-... formatı (sk-... yerine)
Geri kalan her şey aynı. Mevcut kodunuz bu iki değeri değiştirerek çalışır.

Adım 1: API key oluşturun
1. https://app.brainiall.com adresine gidin
2. Google ile giriş yapın (ilk kez kullanıyorsanız)
3. Menü → API Keys → "Yeni oluştur"
4. Açıklayıcı bir isim verin ("benim-app-prod" veya benzeri)
5. Key'i kopyalayın — yalnızca bir kez görünür, iyi saklayın
Pro planında 1 aktif key bulunur; Business planı kredi + birden fazla key + rotasyon içerir.
Adım 2: httpx ile Python
`python
import httpx
BASE = "https://api.brainiall.com/v1"
KEY = "brnl-d13..." # sizin key'iniz
def chat(prompt, model="claude-sonnet-4-6"):
r = httpx.post(
f"{BASE}/chat/completions",
json={
"model": model,
"messages": [{"role": "user", "content": prompt}]
},
headers={"Authorization": f"Bearer {KEY}"},
timeout=60
)
r.raise_for_status()
return r.json()["choices"][0]["message"]["content"]
print(chat("TLS'yi 2 cümlede açıkla."))`
Adım 3: Resmi OpenAI SDK ile Python
`python
from openai import OpenAI
client = OpenAI(
base_url="https://api.brainiall.com/v1",
api_key="brnl-xxx"
)
r = client.chat.completions.create(
model="claude-sonnet-4-6",
messages=[{"role": "user", "content": "Merhaba!"}]
)
print(r.choices[0].message.content)`
OpenAI SDK %100 çalışır — streaming, function calling, tool_use, vision ve tüm OpenAI standartlarını destekliyoruz.
Adım 4: Node.js
`javascript
import OpenAI from 'openai';
const client = new OpenAI({
baseURL: 'https://api.brainiall.com/v1',
apiKey: 'brnl-xxx'
});
const r = await client.chat.completions.create({
model: 'claude-sonnet-4-6',
messages: [{ role: 'user', content: 'Merhaba!' }]
});
console.log(r.choices[0].message.content);`
Mevcut modeller
Gerçek zamanlı listelemek için /v1/models endpoint'ini kullanın:
`python
r = httpx.get(f"{BASE}/models", headers={"Authorization": f"Bearer {KEY}"})
for m in r.json()["data"]:
print(m["id"])`
Kategoriler:
- Metin: claude-sonnet-4-6, gpt-5, gemini-3-pro, llama-4-maverick, deepseek-v3, vb.
- Görsel: gemini-3-flash-image, gpt-5-image, flux-2-klein, seedream-4.5
- Video (ayrı endpoint /v1/videos): bytedance/seedance-2.0-fast
- TTS (endpoint /v1/audio/speech): 54 ses
- STT (endpoint /v1/audio/transcriptions): Whisper Large v3
Streaming (server-sent events)
`python
with httpx.stream("POST", f"{BASE}/chat/completions", ...
json={"model": "...", "messages": [...], "stream": True}
) as r:
for line in r.iter_lines():
if line.startswith("data: "):
# chunk JSON'ı ayrıştır
...`
Streaming, algılanan gecikmeyi büyük ölçüde azaltır — token'lar tam yanıt beklenmek yerine üretildikçe görünür.
Rate limit'ler ve en iyi uygulamalar
- Ücretsiz katman API: mevcut değil — API, Pro veya Business planı gerektirir
- Pro: sohbet + görsel portal üzerinden, API kullanım başına ücretli
- Business: aylık API kredisi dahil
- Retry: 429/5xx için üstel geri çekilme kullanın
- Cache: deterministik yanıtları yerel olarak saklayın
- Timeout: 60 saniye güvenlidir; video gibi uzun görevler için 300 saniye
Yaygın hatalar
- Key'den önce
Beareryazmayı unutmak → 401 - Key'i koda gömmek → git push'ta olası sızıntı; env var kullanın
- 429'u ele almamak → uygulama durur
- Response'daki
usagealanını görmezden gelmek → faturada sürpriz - Basit görev için yanlış model seçmek → gereksiz yere 10 kat maliyet
Hemen deneyin
https://app.brainiall.com adresinde key'inizi oluşturun ve yukarıdaki örneklerden birini çalıştırın. API'ye erişmek için Pro plan gereklidir; Business planı başlamak için yeterli kredi içerir.