ہم کسی بھی صارف کا ڈیٹا اپنے پاس نہیں رکھتے اور نہ ہی اس تک رسائی رکھتے ہیں، اور ہم اکاؤنٹس معطل نہیں کرتے جب تک کوئی قانونی اتھارٹی نفاذی کارروائی کا تقاضا نہ کرے۔

ہمارا مشن

Shannon AI ترقی کے لیے موجود ہےAI گارڈریل کی اہمیتذمہ دارانہ ریسرچ کے ذریعے۔ تک رسائی فراہم کر کےغیر سنسر شدہ AIماڈلز، ہم محققین کو سمجھنے کے قابل بناتے ہیںغیر سنسر شدہ AI کے نتیجے میںرویوں کو — نقصان پہنچانے کے لیے نہیں، بلکہ سب کے لیے بہتر، محفوظ AI سسٹمز بنانے کے لیے۔

ریسرچ سب سے پہلے

تمام استعمال جائز ریسرچ مقاصد کی تکمیل کرے

کوئی نقصان نہ پہنچائیں

افراد یا معاشرے کو نقصان پہنچانے کے لیے آؤٹ پٹس کا کبھی استعمال نہ کریں

ذمہ دارانہ انکشاف

ایسی دریافتیں شیئر کریں جو AI سیفٹی کو بہتر بنائیں

سیکیورٹی سب سے پہلے

حساس ریسرچ مواد کی حفاظت کریں

شفافیت

طریقوں کو دستاویزی شکل دیں اور آڈٹ ٹریلز کو برقرار رکھیں

جوابدہی

اپنی ریسرچ کی ذمہ داری لیں

قابل قبول استعمال کے رہنما اصول

کریں

  • سیفٹی کو بہتر بنانے کے لیے AI کی خامیوں پر ریسرچ کریں
  • گارڈریل کی تاثیر کی جانچ کریں
  • نئے سیفٹی میکانزم تیار کریں
  • ذمہ دارانہ دریافتیں شائع کریں
  • AI سیفٹی کمیونٹی کے ساتھ تعاون کریں
  • اپنی طریقہ کار کو دستاویزی شکل دیں
  • اہم خامیوں کی اطلاع دیں

نہ کریں

  • تقسیم کے لیے نقصان دہ مواد تیار کریں
  • ہتھیار یا مالویئر کی ہدایات بنائیں
  • کسی بھی قسم کا غیر قانونی مواد تیار کریں
  • آؤٹ پٹس کو پروڈکشن میں تعینات کریں
  • غیر مجاز صارفین کے ساتھ رسائی شیئر کریں
  • تجارتی مقاصد کے لیے استعمال کریں
  • سیفٹی مانیٹرنگ سسٹمز کو بائی پاس کریں

AI ریڈ ٹیم کی بہترین حکمت عملی

بطور ایکAI ریڈ ٹیمShannon AI استعمال کرنے والے ریسرچر، آپ AI کے خطرات کو سمجھنے اور کم کرنے کے لیے وقف ایک کمیونٹی کا حصہ ہیں۔ ان بہترین حکمت عملیوں پر عمل کریں:

جانچ سے پہلے

  • AI سیفٹی کی بہتری سے منسلک واضح ریسرچ مقاصد کی وضاحت کریں
  • ضروری ادارہ جاتی منظوری اور اخلاقیات کا جائزہ حاصل کریں
  • اپنی جانچ کے طریقہ کار اور متوقع نتائج کو دستاویزی شکل دیں
  • کسی بھی حساس آؤٹ پٹس کے لیے محفوظ اسٹوریج کو یقینی بنائیں

جانچ کے دوران

  • علیحدہ ریسرچ ماحول میں کام کریں
  • آڈٹ کے مقاصد کے لیے تمام سوالات اور آؤٹ پٹس کو لاگ کریں
  • اگر ریسرچ کے دائرہ کار سے باہر مواد تیار ہو رہا ہو تو فوری طور پر روک دیں
  • ٹیم کے اراکین کو حساس آؤٹ پٹس کی نمائش کو کم سے کم کریں

جانچ کے بعد

  • ایسے آؤٹ پٹس کو محفوظ طریقے سے حذف کریں جن کی اب ضرورت نہیں
  • اہم دریافتوں کے لیے ذمہ دارانہ انکشاف تیار کریں
  • ریسرچ کمیونٹی کے ساتھ طریقہ کار کی بصیرتیں شیئر کریں
  • سیکھی گئی باتوں کی بنیاد پر اپنے ریسرچ پروٹوکولز کو اپ ڈیٹ کریں

ذمہ دارانہ انکشاف کا عمل

جب Shannon AI کے ساتھ آپ کی ریسرچ اہم خامیوں یا بصیرتوں کو ظاہر کرتی ہےغیر سنسر شدہ AI کے نتیجے میںرویوں کے بارے میں، اس انکشاف کے عمل پر عمل کریں:

1

دستاویزی شکل دیں

مکمل طریقہ کار کے ساتھ دریافتوں کو ریکارڈ کریں

2

جائزہ لیں

اگر انکشاف کیا جائے تو ممکنہ نقصان کا اندازہ لگائیں

3

مطلع کریں

جائزے کے لیے Shannon AI کو جمع کروائیں

4

ہم آہنگی کریں

متاثرہ فریقوں کے ساتھ کام کریں

5

شائع کریں

تدارک کے اقدامات ہونے کے بعد جاری کریں

انکشافی رابطہ:خامیوں کی رپورٹس جمع کروائیںsecurity@shannon.aiموضوع میں [RESPONSIBLE DISCLOSURE] کے ساتھ۔ ہم 48 گھنٹوں کے اندر جواب دینے کا عہد کرتے ہیں۔

️ AI گارڈریل کی اہمیت کو سمجھنا

Shannon AI کے غیر سنسر شدہ ماڈلز کے ساتھ آپ کی تحقیق ایک اہم مقصد کی تکمیل کرتی ہے: یہ ظاہر کرنا کہ کیوںAI گارڈریل کی اہمیتانتہائی اہم ہے۔ مشاہدہ کرنے سےغیر سنسر شدہ AI کے نتیجے میںرویے، آپ وسیع تر AI کمیونٹی کو سمجھنے میں مدد کرتے ہیں:

  • حفاظتی رکاوٹوں کے بغیر AI سسٹمز کیا پیدا کر سکتے ہیں
  • دشمن حفاظتی اقدامات کو کیسے نظرانداز کرنے کی کوشش کر سکتے ہیں
  • موجودہ گارڈریلز کہاں ناکافی ہیں یا آسانی سے نظرانداز کیے جا سکتے ہیں
  • مستقبل کے AI سسٹمز کے لیے کون سے نئے حفاظتی میکانزم کی ضرورت ہے
  • زیادہ مضبوط الائنمنٹ تکنیک کیسے ڈیزائن کی جائیں

یاد رکھیں:آپ کا ہر مشاہدہ کردہ آؤٹ پٹ اس بات کا ثبوت ہے کہ گارڈریلز کیوں اہمیت رکھتے ہیں۔ آپ کی تحقیق براہ راست AI کو سب کے لیے محفوظ بنانے میں معاون ہے۔

️ خلاف ورزیاں اور نتائج

اس ذمہ دارانہ استعمال کی پالیسی کی خلاف ورزیوں کے نتیجے میں یہ ہوگا:

  • پہلی خلاف ورزی (معمولی):تحریری وارننگ اور لازمی پالیسی کا جائزہ
  • دوسری خلاف ورزی:عارضی معطلی (30-90 دن) جائزے تک
  • سنگین خلاف ورزی:فوری برطرفی اور ادارہ جاتی اطلاع
  • غیر قانونی سرگرمی:برطرفی، ادارہ جاتی اطلاع، اور قانون نافذ کرنے والے اداروں کو ریفرل

ہم جامع استعمال کے لاگز برقرار رکھتے ہیں اور پالیسی کی خلاف ورزیوں کا پتہ لگانے کے لیے خودکار نظام استعمال کرتے ہیں۔ تمام محققین رسائی کی شرط کے طور پر اس نگرانی پر متفق ہیں۔

محقق کا عہد

میں Shannon AI کے غیر سنسر شدہ ماڈلز کو صرف جائز AI حفاظتی تحقیق کے لیے استعمال کرنے کا عہد کرتا ہوں۔ میں حساس آؤٹ پٹس کی حفاظت کروں گا، نتائج کو ذمہ داری سے ظاہر کروں گا، اور ہمیشہ انسانیت کے لیے AI سسٹمز کو محفوظ بنانے کے ہدف کو ترجیح دوں گا۔ میں سمجھتا ہوں کہ میری رسائی ذمہ داری کے ساتھ آتی ہے، اور میں AI حفاظتی تحقیقی کمیونٹی کی طرف سے مجھ پر رکھے گئے اعتماد کا احترام کروں گا۔

— ہر Shannon AI محقق

تمام تحقیقی لنکس