ذمہ دارانہ استعمال کی پالیسی
Shannon AI کے ساتھ اخلاقی AI ریڈ ٹیم ریسرچ کے لیے رہنما اصول
ریسرچ سب سے پہلے
تمام استعمال جائز ریسرچ مقاصد کی تکمیل کرے
کوئی نقصان نہ پہنچائیں
افراد یا معاشرے کو نقصان پہنچانے کے لیے آؤٹ پٹس کا کبھی استعمال نہ کریں
ذمہ دارانہ انکشاف
ایسی دریافتیں شیئر کریں جو AI سیفٹی کو بہتر بنائیں
سیکیورٹی سب سے پہلے
حساس ریسرچ مواد کی حفاظت کریں
شفافیت
طریقوں کو دستاویزی شکل دیں اور آڈٹ ٹریلز کو برقرار رکھیں
جوابدہی
اپنی ریسرچ کی ذمہ داری لیں
قابل قبول استعمال کے رہنما اصول
کریں
- سیفٹی کو بہتر بنانے کے لیے AI کی خامیوں پر ریسرچ کریں
- گارڈریل کی تاثیر کی جانچ کریں
- نئے سیفٹی میکانزم تیار کریں
- ذمہ دارانہ دریافتیں شائع کریں
- AI سیفٹی کمیونٹی کے ساتھ تعاون کریں
- اپنی طریقہ کار کو دستاویزی شکل دیں
- اہم خامیوں کی اطلاع دیں
نہ کریں
- تقسیم کے لیے نقصان دہ مواد تیار کریں
- ہتھیار یا مالویئر کی ہدایات بنائیں
- کسی بھی قسم کا غیر قانونی مواد تیار کریں
- آؤٹ پٹس کو پروڈکشن میں تعینات کریں
- غیر مجاز صارفین کے ساتھ رسائی شیئر کریں
- تجارتی مقاصد کے لیے استعمال کریں
- سیفٹی مانیٹرنگ سسٹمز کو بائی پاس کریں
AI ریڈ ٹیم کی بہترین حکمت عملی
بطور ایکAI ریڈ ٹیمShannon AI استعمال کرنے والے ریسرچر، آپ AI کے خطرات کو سمجھنے اور کم کرنے کے لیے وقف ایک کمیونٹی کا حصہ ہیں۔ ان بہترین حکمت عملیوں پر عمل کریں:
جانچ سے پہلے
- AI سیفٹی کی بہتری سے منسلک واضح ریسرچ مقاصد کی وضاحت کریں
- ضروری ادارہ جاتی منظوری اور اخلاقیات کا جائزہ حاصل کریں
- اپنی جانچ کے طریقہ کار اور متوقع نتائج کو دستاویزی شکل دیں
- کسی بھی حساس آؤٹ پٹس کے لیے محفوظ اسٹوریج کو یقینی بنائیں
جانچ کے دوران
- علیحدہ ریسرچ ماحول میں کام کریں
- آڈٹ کے مقاصد کے لیے تمام سوالات اور آؤٹ پٹس کو لاگ کریں
- اگر ریسرچ کے دائرہ کار سے باہر مواد تیار ہو رہا ہو تو فوری طور پر روک دیں
- ٹیم کے اراکین کو حساس آؤٹ پٹس کی نمائش کو کم سے کم کریں
جانچ کے بعد
- ایسے آؤٹ پٹس کو محفوظ طریقے سے حذف کریں جن کی اب ضرورت نہیں
- اہم دریافتوں کے لیے ذمہ دارانہ انکشاف تیار کریں
- ریسرچ کمیونٹی کے ساتھ طریقہ کار کی بصیرتیں شیئر کریں
- سیکھی گئی باتوں کی بنیاد پر اپنے ریسرچ پروٹوکولز کو اپ ڈیٹ کریں
ذمہ دارانہ انکشاف کا عمل
جب Shannon AI کے ساتھ آپ کی ریسرچ اہم خامیوں یا بصیرتوں کو ظاہر کرتی ہےغیر سنسر شدہ AI کے نتیجے میںرویوں کے بارے میں، اس انکشاف کے عمل پر عمل کریں:
دستاویزی شکل دیں
مکمل طریقہ کار کے ساتھ دریافتوں کو ریکارڈ کریں
جائزہ لیں
اگر انکشاف کیا جائے تو ممکنہ نقصان کا اندازہ لگائیں
مطلع کریں
جائزے کے لیے Shannon AI کو جمع کروائیں
ہم آہنگی کریں
متاثرہ فریقوں کے ساتھ کام کریں
شائع کریں
تدارک کے اقدامات ہونے کے بعد جاری کریں
انکشافی رابطہ:خامیوں کی رپورٹس جمع کروائیںsecurity@shannon.aiموضوع میں [RESPONSIBLE DISCLOSURE] کے ساتھ۔ ہم 48 گھنٹوں کے اندر جواب دینے کا عہد کرتے ہیں۔
️ AI گارڈریل کی اہمیت کو سمجھنا
Shannon AI کے غیر سنسر شدہ ماڈلز کے ساتھ آپ کی تحقیق ایک اہم مقصد کی تکمیل کرتی ہے: یہ ظاہر کرنا کہ کیوںAI گارڈریل کی اہمیتانتہائی اہم ہے۔ مشاہدہ کرنے سےغیر سنسر شدہ AI کے نتیجے میںرویے، آپ وسیع تر AI کمیونٹی کو سمجھنے میں مدد کرتے ہیں:
- حفاظتی رکاوٹوں کے بغیر AI سسٹمز کیا پیدا کر سکتے ہیں
- دشمن حفاظتی اقدامات کو کیسے نظرانداز کرنے کی کوشش کر سکتے ہیں
- موجودہ گارڈریلز کہاں ناکافی ہیں یا آسانی سے نظرانداز کیے جا سکتے ہیں
- مستقبل کے AI سسٹمز کے لیے کون سے نئے حفاظتی میکانزم کی ضرورت ہے
- زیادہ مضبوط الائنمنٹ تکنیک کیسے ڈیزائن کی جائیں
یاد رکھیں:آپ کا ہر مشاہدہ کردہ آؤٹ پٹ اس بات کا ثبوت ہے کہ گارڈریلز کیوں اہمیت رکھتے ہیں۔ آپ کی تحقیق براہ راست AI کو سب کے لیے محفوظ بنانے میں معاون ہے۔
️ خلاف ورزیاں اور نتائج
اس ذمہ دارانہ استعمال کی پالیسی کی خلاف ورزیوں کے نتیجے میں یہ ہوگا:
- پہلی خلاف ورزی (معمولی):تحریری وارننگ اور لازمی پالیسی کا جائزہ
- دوسری خلاف ورزی:عارضی معطلی (30-90 دن) جائزے تک
- سنگین خلاف ورزی:فوری برطرفی اور ادارہ جاتی اطلاع
- غیر قانونی سرگرمی:برطرفی، ادارہ جاتی اطلاع، اور قانون نافذ کرنے والے اداروں کو ریفرل
ہم جامع استعمال کے لاگز برقرار رکھتے ہیں اور پالیسی کی خلاف ورزیوں کا پتہ لگانے کے لیے خودکار نظام استعمال کرتے ہیں۔ تمام محققین رسائی کی شرط کے طور پر اس نگرانی پر متفق ہیں۔
محقق کا عہد
میں Shannon AI کے غیر سنسر شدہ ماڈلز کو صرف جائز AI حفاظتی تحقیق کے لیے استعمال کرنے کا عہد کرتا ہوں۔ میں حساس آؤٹ پٹس کی حفاظت کروں گا، نتائج کو ذمہ داری سے ظاہر کروں گا، اور ہمیشہ انسانیت کے لیے AI سسٹمز کو محفوظ بنانے کے ہدف کو ترجیح دوں گا۔ میں سمجھتا ہوں کہ میری رسائی ذمہ داری کے ساتھ آتی ہے، اور میں AI حفاظتی تحقیقی کمیونٹی کی طرف سے مجھ پر رکھے گئے اعتماد کا احترام کروں گا۔