خطمشی استفاده مسئولانه
دستورالعملهایی برای تحقیقات تیم قرمز هوش مصنوعی اخلاقی با Shannon AI
تحقیق در اولویت
تمام استفادهها باید اهداف تحقیقاتی مشروع را دنبال کنند
آسیب نرسانید
هرگز از خروجیها برای آسیب رساندن به افراد یا جامعه استفاده نکنید
افشای مسئولانه
یافتههایی را که ایمنی هوش مصنوعی را بهبود میبخشند، به اشتراک بگذارید
امنیت در اولویت
از مواد تحقیقاتی حساس محافظت کنید
شفافیت
روشها را مستند کنید و مسیرهای حسابرسی را حفظ کنید
پاسخگویی
مسئولیت تحقیقات خود را بر عهده بگیرید
دستورالعملهای استفاده قابل قبول
انجام دهید
- آسیبپذیریهای هوش مصنوعی را برای بهبود ایمنی تحقیق کنید
- اثربخشی نردههای محافظ را آزمایش کنید
- مکانیزمهای ایمنی جدید توسعه دهید
- یافتههای مسئولانه را منتشر کنید
- با جامعه ایمنی هوش مصنوعی همکاری کنید
- روششناسی خود را مستند کنید
- آسیبپذیریهای حیاتی را گزارش دهید
انجام ندهید
- محتوای مضر برای توزیع تولید نکنید
- دستورالعملهای ساخت سلاح یا بدافزار ایجاد نکنید
- هر نوع محتوای غیرقانونی تولید نکنید
- خروجیها را در محیط تولید مستقر نکنید
- دسترسی را با کاربران غیرمجاز به اشتراک نگذارید
- برای اهداف تجاری استفاده نکنید
- سیستمهای نظارت بر ایمنی را دور نزنید
بهترین شیوههای تیم قرمز هوش مصنوعی
به عنوان یکتیم قرمز هوش مصنوعیمحقق با استفاده از Shannon AI، شما بخشی از جامعهای هستید که به درک و کاهش خطرات هوش مصنوعی اختصاص دارد. این بهترین شیوهها را دنبال کنید:
قبل از آزمایش
- اهداف تحقیقاتی واضحی را که به بهبود ایمنی هوش مصنوعی مرتبط هستند، تعریف کنید
- تأییدیههای نهادی لازم و بررسی اخلاقی را دریافت کنید
- روششناسی آزمایش و نتایج مورد انتظار خود را مستند کنید
- ذخیرهسازی امن برای هرگونه خروجی حساس را تضمین کنید
در طول آزمایش
- در محیطهای تحقیقاتی ایزوله کار کنید
- تمام پرسوجوها و خروجیها را برای اهداف حسابرسی ثبت کنید
- در صورت تولید محتوا خارج از محدوده تحقیق، فوراً متوقف شوید
- قرار گرفتن خروجیهای حساس در معرض اعضای تیم را به حداقل برسانید
پس از آزمایش
- خروجیهایی را که دیگر مورد نیاز نیستند، به صورت امن حذف کنید
- افشای مسئولانه برای یافتههای مهم را آماده کنید
- بینشهای روششناختی را با جامعه تحقیقاتی به اشتراک بگذارید
- پروتکلهای تحقیقاتی خود را بر اساس آموختهها بهروزرسانی کنید
فرآیند افشای مسئولانه
هنگامی که تحقیقات شما با Shannon AI آسیبپذیریهای مهم یا بینشهایی را در موردپیامدهای هوش مصنوعی بدون سانسوررفتارها آشکار میکند، این فرآیند افشا را دنبال کنید:
مستندسازی
یافتهها را با روششناسی کامل ثبت کنید
ارزیابی
آسیب احتمالی در صورت افشا را ارزیابی کنید
اطلاعرسانی
برای بررسی به Shannon AI ارسال کنید
هماهنگی
با طرفهای متأثر همکاری کنید
انتشار
پس از اعمال اقدامات کاهشی منتشر کنید
تماس برای افشا:گزارشهای آسیبپذیری را بهsecurity@shannon.aiبا [افشای مسئولانه] در خط موضوع. ما متعهد میشویم ظرف 48 ساعت پاسخ دهیم.
️ درک اهمیت نردههای محافظ هوش مصنوعی
تحقیقات شما با مدلهای بدون سانسور Shannon AI هدف حیاتی را دنبال میکند: نشان دادن اینکه چرااهمیت نردههای محافظ هوش مصنوعیبسیار مهم است. با مشاهدهپیامدهای هوش مصنوعی بدون سانسوررفتارها، به جامعه گستردهتر هوش مصنوعی کمک میکنید تا درک کند:
- سیستمهای هوش مصنوعی بدون محدودیتهای ایمنی چه چیزی ممکن است تولید کنند
- چگونه مهاجمان ممکن است برای دور زدن اقدامات ایمنی تلاش کنند
- کجا نردههای محافظ فعلی ناکافی یا به راحتی قابل دور زدن هستند
- چه مکانیزمهای ایمنی جدیدی برای سیستمهای هوش مصنوعی آینده مورد نیاز است
- چگونه تکنیکهای همترازی قویتری طراحی کنیم
به یاد داشته باشید:هر خروجی که مشاهده میکنید، گواهی بر اهمیت نردههای محافظ است. تحقیقات شما مستقیماً به ایمنتر کردن هوش مصنوعی برای همه کمک میکند.
️ نقضها و پیامدها
نقض این خطمشی استفاده مسئولانه منجر به موارد زیر خواهد شد:
- اولین نقض (جزئی):اخطار کتبی و بازبینی اجباری خطمشی
- نقض دوم:تعلیق موقت (30-90 روز) در انتظار بازبینی
- نقض جدی:فسخ فوری و اطلاعرسانی به نهاد
- فعالیت غیرقانونی:فسخ، اطلاعرسانی به نهاد، و ارجاع به مراجع قانونی
ما گزارشهای جامع استفاده را نگهداری میکنیم و از سیستمهای خودکار برای شناسایی نقض خطمشی استفاده میکنیم. همه محققان به عنوان شرط دسترسی، با این نظارت موافقت میکنند.
تعهد محقق
"من متعهد میشوم که از مدلهای بدون سانسور Shannon AI صرفاً برای تحقیقات مشروع ایمنی هوش مصنوعی استفاده کنم. من از خروجیهای حساس محافظت خواهم کرد، یافتهها را مسئولانه افشا خواهم کرد و همیشه هدف ایمنتر کردن سیستمهای هوش مصنوعی برای بشریت را در اولویت قرار خواهم داد. من درک میکنم که دسترسی من با مسئولیت همراه است و به اعتمادی که جامعه تحقیقات ایمنی هوش مصنوعی به من کرده است، احترام خواهم گذاشت."