Ana Brainiall

اكتشف السمية في التعليقات باستخدام الذكاء الاصطناعي

intermediario · 10 min · Por Ana Brainiall

نهاية Perspective: ما الذي حدث

في أكتوبر 2024، أعلن Google أن Perspective API — الخدمة المجانية الأكثر استخدامًا في العالم لاكتشاف المحتوى السام — ستُوقف رسميًا في ديسمبر 2026. المنصات التي تعتمد عليها (Reddit، New York Times، The Guardian، وآلاف المنتديات) لديها عامان للهجرة.

المشكلة: كان Perspective مجانيًا. أما البدائل التجارية مثل Azure Content Safety وAWS Comprehend فتبدأ أسعارها من دولار واحد لكل 1,000 تحليل. بالنسبة لمنتدى كبير يستقبل 100,000 تعليق يوميًا، يعني ذلك 3,000 دولار شهريًا على الإشراف وحده.

تقدم Brainiall حلول إشراف باستخدام نماذج Detoxify وUnitary تعمل محليًا عبر ONNX على المعالج (CPU)، بتكلفة أقل من 0.001 ريال لكل تحليل — أرخص بـ 100 مرة.

timeline mostrando Perspective API (2017-2026), com ícone de "desligamento" em d

الفئات السبع التي تهمك

يصنّف Detoxify النصوص في 7 أبعاد بدرجة تتراوح بين 0 و1:

1. Toxicity: الإهانة العامة والعدوانية
2. Severe toxicity: التهديد والكراهية الشديدة
3. Obscene: الألفاظ النابية واللغة البذيئة
4. Threat: التهديد بالعنف الجسدي
5. Insult: الهجوم الشخصي المباشر
6. Identity hate: التمييز القائم على الانتماء (العرق، الجنس، الدين)
7. Sexual explicit: المحتوى الجنسي الصريح

سياستك هي التي تحدد العتبات. مثال شائع: الحجب إذا كان severe_toxicity > 0.5 أو identity_hate > 0.6 أو threat > 0.3. الألفاظ النابية المنفردة (obscene > 0.8) تمر عادةً بتحذير دون حجب.

dashboard visual com 7 medidores mostrando um comentário de exemplo sendo analis

تحدي اللغة العربية

تم تدريب Detoxify على اللغة الإنجليزية، وتصل دقته إلى 95%+ مع التعليقات الإنجليزية. أما مع اللغات الأخرى كالعربية، فقد تنخفض الدقة إلى 75-85%، إذ تُربك المصطلحات المحلية والعامية الخاصة النموذجَ.

في Brainiall نستخدم طبقة إضافية: مصنّف هجين يجمع بين:
- Detoxify متعدد اللغات (70% من القرار)
- قائمة كلمات خاصة بالمنطقة المستهدفة (20%)
- LLM صغير (Gemma 3 أو ما يماثله) للحالات الحدية (10%)

يرفع هذا الدقة إلى 92%+ مع الحفاظ على زمن استجابة أقل من 80ms.

حين يُخطئ الذكاء الاصطناعي بشكل خطير

الحل العملي: ادمج الدرجة التلقائية مع الإشراف اللطيف (طلب التأكيد قبل النشر) بدلًا من الحجب الفوري للحالات الحدية.

التكامل مع منصتك

التدفق الموصى به:

1. يكتب المستخدم تعليقًا ← أرسل طلب POST /api/toxicity مع { text }
2. تعيد API النتيجة: { toxicity, severe, threat, insult, identity_hate, obscene, sexual }
3. يقرر كودك: الحجب، التحذير، أو الموافقة
4. في حالة التحذير، اعرض "راجع — قد يُسيء لبعض المستخدمين" قبل النشر
5. في حالة الحجب، سجّل الحدث وأبلغ فريق الإشراف البشري

لا تعتمد على الإشراف التلقائي بنسبة 100%. احتفظ دائمًا بطابور بشري للحالات الحدية.

جرّبه الآن

في محادثة Brainiall، اطلب "حلّل سمية هذا التعليق: [الصق هنا]". أو عبر API على المسار /api/nlp/toxicity. تشمل خطة Pro 10,000 تحليل شهريًا؛ وتوفر خطة Business طابور أولوية ومعالجة دفعية لملايين التعليقات.

أعجبك المحتوى؟

افتح 17 دورة Pro + 40+ نموذج AI في الدردشة + إنشاء فيديو وموسيقى والاستوديو الكامل.

اشترك في Pro · $5.99/شهر

ألغِ في أي وقت · بدون التزام