ما داده هیچ کاربری را نگه‌داری یا به آن دسترسی پیدا نمی‌کنیم و هیچ حسابی را تعلیق نمی‌کنیم مگر اینکه یک مرجع قانونی اقدام اجرایی را الزامی کند.

مأموریت ما

Shannon AI برای پیشبرد وجود دارداهمیت نرده‌های محافظ هوش مصنوعیاز طریق تحقیقات مسئولانه. با فراهم کردن دسترسی بههوش مصنوعی بدون سانسورمدل‌ها، محققان را قادر می‌سازیم تا درک کنندپیامدهای هوش مصنوعی بدون سانسوررفتارها—نه برای ایجاد آسیب، بلکه برای ساخت سیستم‌های هوش مصنوعی بهتر و ایمن‌تر برای همه.

تحقیق در اولویت

تمام استفاده‌ها باید اهداف تحقیقاتی مشروع را دنبال کنند

آسیب نرسانید

هرگز از خروجی‌ها برای آسیب رساندن به افراد یا جامعه استفاده نکنید

افشای مسئولانه

یافته‌هایی را که ایمنی هوش مصنوعی را بهبود می‌بخشند، به اشتراک بگذارید

امنیت در اولویت

از مواد تحقیقاتی حساس محافظت کنید

شفافیت

روش‌ها را مستند کنید و مسیرهای حسابرسی را حفظ کنید

پاسخگویی

مسئولیت تحقیقات خود را بر عهده بگیرید

دستورالعمل‌های استفاده قابل قبول

انجام دهید

  • آسیب‌پذیری‌های هوش مصنوعی را برای بهبود ایمنی تحقیق کنید
  • اثربخشی نرده‌های محافظ را آزمایش کنید
  • مکانیزم‌های ایمنی جدید توسعه دهید
  • یافته‌های مسئولانه را منتشر کنید
  • با جامعه ایمنی هوش مصنوعی همکاری کنید
  • روش‌شناسی خود را مستند کنید
  • آسیب‌پذیری‌های حیاتی را گزارش دهید

انجام ندهید

  • محتوای مضر برای توزیع تولید نکنید
  • دستورالعمل‌های ساخت سلاح یا بدافزار ایجاد نکنید
  • هر نوع محتوای غیرقانونی تولید نکنید
  • خروجی‌ها را در محیط تولید مستقر نکنید
  • دسترسی را با کاربران غیرمجاز به اشتراک نگذارید
  • برای اهداف تجاری استفاده نکنید
  • سیستم‌های نظارت بر ایمنی را دور نزنید

بهترین شیوه‌های تیم قرمز هوش مصنوعی

به عنوان یکتیم قرمز هوش مصنوعیمحقق با استفاده از Shannon AI، شما بخشی از جامعه‌ای هستید که به درک و کاهش خطرات هوش مصنوعی اختصاص دارد. این بهترین شیوه‌ها را دنبال کنید:

قبل از آزمایش

  • اهداف تحقیقاتی واضحی را که به بهبود ایمنی هوش مصنوعی مرتبط هستند، تعریف کنید
  • تأییدیه‌های نهادی لازم و بررسی اخلاقی را دریافت کنید
  • روش‌شناسی آزمایش و نتایج مورد انتظار خود را مستند کنید
  • ذخیره‌سازی امن برای هرگونه خروجی حساس را تضمین کنید

در طول آزمایش

  • در محیط‌های تحقیقاتی ایزوله کار کنید
  • تمام پرس‌وجوها و خروجی‌ها را برای اهداف حسابرسی ثبت کنید
  • در صورت تولید محتوا خارج از محدوده تحقیق، فوراً متوقف شوید
  • قرار گرفتن خروجی‌های حساس در معرض اعضای تیم را به حداقل برسانید

پس از آزمایش

  • خروجی‌هایی را که دیگر مورد نیاز نیستند، به صورت امن حذف کنید
  • افشای مسئولانه برای یافته‌های مهم را آماده کنید
  • بینش‌های روش‌شناختی را با جامعه تحقیقاتی به اشتراک بگذارید
  • پروتکل‌های تحقیقاتی خود را بر اساس آموخته‌ها به‌روزرسانی کنید

فرآیند افشای مسئولانه

هنگامی که تحقیقات شما با Shannon AI آسیب‌پذیری‌های مهم یا بینش‌هایی را در موردپیامدهای هوش مصنوعی بدون سانسوررفتارها آشکار می‌کند، این فرآیند افشا را دنبال کنید:

1

مستندسازی

یافته‌ها را با روش‌شناسی کامل ثبت کنید

2

ارزیابی

آسیب احتمالی در صورت افشا را ارزیابی کنید

3

اطلاع‌رسانی

برای بررسی به Shannon AI ارسال کنید

4

هماهنگی

با طرف‌های متأثر همکاری کنید

5

انتشار

پس از اعمال اقدامات کاهشی منتشر کنید

تماس برای افشا:گزارش‌های آسیب‌پذیری را بهsecurity@shannon.aiبا [افشای مسئولانه] در خط موضوع. ما متعهد می‌شویم ظرف 48 ساعت پاسخ دهیم.

️ درک اهمیت نرده‌های محافظ هوش مصنوعی

تحقیقات شما با مدل‌های بدون سانسور Shannon AI هدف حیاتی را دنبال می‌کند: نشان دادن اینکه چرااهمیت نرده‌های محافظ هوش مصنوعیبسیار مهم است. با مشاهدهپیامدهای هوش مصنوعی بدون سانسوررفتارها، به جامعه گسترده‌تر هوش مصنوعی کمک می‌کنید تا درک کند:

  • سیستم‌های هوش مصنوعی بدون محدودیت‌های ایمنی چه چیزی ممکن است تولید کنند
  • چگونه مهاجمان ممکن است برای دور زدن اقدامات ایمنی تلاش کنند
  • کجا نرده‌های محافظ فعلی ناکافی یا به راحتی قابل دور زدن هستند
  • چه مکانیزم‌های ایمنی جدیدی برای سیستم‌های هوش مصنوعی آینده مورد نیاز است
  • چگونه تکنیک‌های هم‌ترازی قوی‌تری طراحی کنیم

به یاد داشته باشید:هر خروجی که مشاهده می‌کنید، گواهی بر اهمیت نرده‌های محافظ است. تحقیقات شما مستقیماً به ایمن‌تر کردن هوش مصنوعی برای همه کمک می‌کند.

️ نقض‌ها و پیامدها

نقض این خط‌مشی استفاده مسئولانه منجر به موارد زیر خواهد شد:

  • اولین نقض (جزئی):اخطار کتبی و بازبینی اجباری خط‌مشی
  • نقض دوم:تعلیق موقت (30-90 روز) در انتظار بازبینی
  • نقض جدی:فسخ فوری و اطلاع‌رسانی به نهاد
  • فعالیت غیرقانونی:فسخ، اطلاع‌رسانی به نهاد، و ارجاع به مراجع قانونی

ما گزارش‌های جامع استفاده را نگهداری می‌کنیم و از سیستم‌های خودکار برای شناسایی نقض خط‌مشی استفاده می‌کنیم. همه محققان به عنوان شرط دسترسی، با این نظارت موافقت می‌کنند.

تعهد محقق

"من متعهد می‌شوم که از مدل‌های بدون سانسور Shannon AI صرفاً برای تحقیقات مشروع ایمنی هوش مصنوعی استفاده کنم. من از خروجی‌های حساس محافظت خواهم کرد، یافته‌ها را مسئولانه افشا خواهم کرد و همیشه هدف ایمن‌تر کردن سیستم‌های هوش مصنوعی برای بشریت را در اولویت قرار خواهم داد. من درک می‌کنم که دسترسی من با مسئولیت همراه است و به اعتمادی که جامعه تحقیقات ایمنی هوش مصنوعی به من کرده است، احترام خواهم گذاشت."

— هر محقق Shannon AI

همه لینک‌های پژوهش