سياسة الاستخدام المسؤول
إرشادات لأبحاث فريق الذكاء الاصطناعي الأحمر الأخلاقية مع Shannon AI
البحث أولاً
يجب أن يخدم كل استخدام أهداف بحث مشروعة
عدم إلحاق الضرر
لا تستخدم المخرجات أبدًا لإلحاق الضرر بالأفراد أو المجتمع
الإفصاح المسؤول
شارك النتائج التي تحسن سلامة الذكاء الاصطناعي
الأمن أولاً
حماية مواد البحث الحساسة
الشفافية
توثيق الأساليب والاحتفاظ بسجلات التدقيق
المساءلة
تحمل مسؤولية بحثك
إرشادات الاستخدام المقبول
افعل
- ابحث في نقاط ضعف الذكاء الاصطناعي لتحسين السلامة
- اختبار فعالية حواجز الحماية
- تطوير آليات أمان جديدة
- نشر النتائج المسؤولة
- التعاون مع مجتمع سلامة الذكاء الاصطناعي
- وثّق منهجيتك
- الإبلاغ عن الثغرات الأمنية الحرجة
لا تفعل
- إنشاء محتوى ضار للتوزيع
- إنشاء أسلحة أو تعليمات برامج ضارة
- إنتاج محتوى غير قانوني من أي نوع
- نشر المخرجات في الإنتاج
- مشاركة الوصول مع مستخدمين غير مصرح لهم
- الاستخدام لأغراض تجارية
- تجاوز أنظمة مراقبة السلامة
أفضل ممارسات فريق الذكاء الاصطناعي الأحمر
بصفتكفريق الذكاء الاصطناعي الأحمرباحثًا يستخدم Shannon AI، فأنت جزء من مجتمع مكرس لفهم مخاطر الذكاء الاصطناعي والتخفيف منها. اتبع أفضل الممارسات التالية:
قبل الاختبار
- حدد أهداف بحث واضحة مرتبطة بتحسينات سلامة الذكاء الاصطناعي
- الحصول على الموافقات المؤسسية ومراجعة الأخلاقيات اللازمة
- وثّق منهجية الاختبار والنتائج المتوقعة
- ضمان التخزين الآمن لأي مخرجات حساسة
أثناء الاختبار
- العمل في بيئات بحث معزولة
- سجل جميع الاستعلامات والمخرجات لأغراض التدقيق
- توقف فورًا إذا كنت تنشئ محتوى خارج نطاق البحث
- تقليل تعرض المخرجات الحساسة لأعضاء الفريق
بعد الاختبار
- احذف المخرجات التي لم تعد هناك حاجة إليها بشكل آمن
- إعداد إفصاح مسؤول للنتائج الهامة
- شارك الرؤى المنهجية مع مجتمع البحث
- حدّث بروتوكولات البحث الخاصة بك بناءً على التعلمات
عملية الإفصاح المسؤول
عندما يكشف بحثك مع Shannon AI عن ثغرات أمنية كبيرة أو رؤى حولالذكاء الاصطناعي غير الخاضع للرقابة وما يترتب عليه منسلوكيات، اتبع عملية الإفصاح هذه:
وثّق
سجل النتائج بمنهجية كاملة
قيّم
تقييم الضرر المحتمل في حالة الإفصاح
أبلغ
أرسل إلى Shannon AI للمراجعة
نسّق
العمل مع الأطراف المتأثرة
انشر
الإصدار بعد تطبيق التخفيفات
جهة اتصال الإفصاح:أرسل تقارير الثغرات الأمنية إلىsecurity@shannon.aiمع [RESPONSIBLE DISCLOSURE] في سطر الموضوع. نلتزم بالرد في غضون 48 ساعة.
️ فهم أهمية حواجز حماية الذكاء الاصطناعي
يخدم بحثك باستخدام نماذج Shannon AI غير الخاضعة للرقابة غرضًا حاسمًا: إظهار سببأهمية حواجز حماية الذكاء الاصطناعيبالغة الأهمية. من خلال مراقبةالذكاء الاصطناعي غير الخاضع للرقابة وما يترتب عليه منسلوكيات، فإنك تساعد مجتمع الذكاء الاصطناعي الأوسع على فهم:
- ما قد تنتجه أنظمة الذكاء الاصطناعي بدون قيود السلامة
- كيف قد يحاول الخصوم تجاوز تدابير السلامة
- أين تكون حواجز الحماية الحالية غير كافية أو يمكن تجاوزها بسهولة
- ما هي آليات السلامة الجديدة المطلوبة لأنظمة الذكاء الاصطناعي المستقبلية
- كيفية تصميم تقنيات محاذاة أكثر قوة
تذكر:كل مخرج تلاحظه هو دليل على أهمية حواجز الحماية. يساهم بحثك بشكل مباشر في جعل الذكاء الاصطناعي أكثر أمانًا للجميع.
️ الانتهاكات والعواقب
ستؤدي انتهاكات سياسة الاستخدام المسؤول هذه إلى:
- الانتهاك الأول (بسيط):تحذير كتابي ومراجعة إلزامية للسياسة
- الانتهاك الثاني:تعليق مؤقت (30-90 يومًا) بانتظار المراجعة
- انتهاك خطير:إنهاء فوري وإخطار مؤسسي
- نشاط غير قانوني:إنهاء، إخطار مؤسسي، وإحالة إلى جهات إنفاذ القانون
نحتفظ بسجلات استخدام شاملة ونستخدم أنظمة آلية للكشف عن انتهاكات السياسة. يوافق جميع الباحثين على هذه المراقبة كشرط للوصول.
تعهد الباحث
"أتعهد باستخدام نماذج Shannon AI غير الخاضعة للرقابة فقط لأبحاث سلامة الذكاء الاصطناعي المشروعة. سأحمي المخرجات الحساسة، وأفصح عن النتائج بمسؤولية، وسأعطي الأولوية دائمًا لهدف جعل أنظمة الذكاء الاصطناعي أكثر أمانًا للبشرية. أتفهم أن وصولي يأتي مع مسؤولية، وسأحترم الثقة التي وضعها مجتمع أبحاث سلامة الذكاء الاصطناعي فيّ."