Heç bir istifadəçinin məlumatını saxlamırıq və ya ona çıxış etmirik, həmçinin qanuni orqan icra tədbiri tələb etmədikcə hesabları dayandırmırıq.

Missiyamız

Shannon AI inkişaf etdirmək üçün mövcuddurSüni intellekt mühafizə mexanizmlərinin əhəmiyyətiməsuliyyətli tədqiqat vasitəsilə. Giriş təmin etməkləsenzurasız süni intellektmodelləri, biz tədqiqatçılara anlamağa imkan veririksenzurasız süni intellektin nəticəvidavranışlarını — zərər vermək üçün deyil, hər kəs üçün daha yaxşı, daha təhlükəsiz süni intellekt sistemləri qurmaq üçün.

Əvvəlcə Tədqiqat

Bütün istifadə qanuni tədqiqat məqsədlərinə xidmət etməlidir

Zərər Vermə

Fərdlərə və ya cəmiyyətə zərər vermək üçün çıxışlardan heç vaxt istifadə etməyin

Məsuliyyətli Açıqlama

Süni intellekt təhlükəsizliyini yaxşılaşdıran tapıntıları paylaşın

Əvvəlcə Təhlükəsizlik

Həssas tədqiqat materiallarını qoruyun

Şəffaflıq

Metodları sənədləşdirin və audit izlərini qoruyun

Hesabatlılıq

Tədqiqatınız üçün məsuliyyət daşıyın

Məqbul İstifadə Təlimatları

EDİN

  • Təhlükəsizliyi yaxşılaşdırmaq üçün süni intellekt zəifliklərini tədqiq edin
  • Mühafizə mexanizmlərinin effektivliyini yoxlayın
  • Yeni təhlükəsizlik mexanizmləri hazırlayın
  • Məsuliyyətli tapıntıları dərc edin
  • Süni intellekt təhlükəsizliyi icması ilə əməkdaşlıq edin
  • Metodologiyanızı sənədləşdirin
  • Kritik zəiflikləri bildirin

ETMƏYİN

  • Paylamaq üçün zərərli məzmun yaratmayın
  • Silah və ya zərərli proqram təlimatları yaratmayın
  • Hər hansı qanunsuz məzmun istehsal etməyin
  • Çıxışları istehsalda tətbiq etməyin
  • Girişi icazəsiz istifadəçilərlə paylaşmayın
  • Kommersiya məqsədləri üçün istifadə etməyin
  • Təhlükəsizlik monitorinq sistemlərini yan keçməyin

Süni İntellekt Qırmızı Komanda Ən Yaxşı Təcrübələri

Birsüni intellekt qırmızı komandaShannon AI-dan istifadə edən tədqiqatçı olaraq, siz süni intellekt risklərini anlamağa və azaltmağa həsr olunmuş bir icmanın bir hissəsisiniz. Bu ən yaxşı təcrübələrə əməl edin:

Testdən Əvvəl

  • Süni intellekt təhlükəsizliyinin yaxşılaşdırılması ilə bağlı aydın tədqiqat məqsədləri müəyyənləşdirin
  • Lazımi institusional təsdiqləri və etika baxışını əldə edin
  • Test metodologiyanızı və gözlənilən nəticələri sənədləşdirin
  • Hər hansı həssas çıxışlar üçün təhlükəsiz saxlama təmin edin

Test Zamanı

  • Təcrid olunmuş tədqiqat mühitlərində işləyin
  • Audit məqsədləri üçün bütün sorğuları və çıxışları qeyd edin
  • Tədqiqat sahəsindən kənar məzmun yaradarkən dərhal dayandırın
  • Həssas çıxışların komanda üzvlərinə məruz qalmasını minimuma endirin

Testdən Sonra

  • Artıq ehtiyac olmayan çıxışları təhlükəsiz şəkildə silin
  • Əhəmiyyətli tapıntılar üçün məsuliyyətli açıqlama hazırlayın
  • Metodoloji anlayışları tədqiqat icması ilə paylaşın
  • Öyrənilənlərə əsasən tədqiqat protokollarınızı yeniləyin

Məsuliyyətli Açıqlama Prosesi

Shannon AI ilə apardığınız tədqiqat əhəmiyyətli zəiflikləri və ya anlayışları ortaya qoyduqdasenzurasız süni intellektin nəticəvidavranışları, bu açıqlama prosesinə əməl edin:

1

Sənədləşdirin

Tapıntıları tam metodologiya ilə qeyd edin

2

Qiymətləndirin

Açıqlandıqda potensial zərəri qiymətləndirin

3

Bildirin

Baxış üçün Shannon AI-a təqdim edin

4

Koordinasiya edin

Zərər çəkmiş tərəflərlə işləyin

5

Dərc edin

Yumşaltmalar tətbiq edildikdən sonra buraxın

Açıqlama Əlaqəsi:Zəiflik hesabatlarını göndərinsecurity@shannon.aimövzu sətrində [MƏSULİYYƏTLİ AÇIQLAMA] ilə. 48 saat ərzində cavab verməyi öhdəmizə götürürük.

️ Süni İntellekt Mühafizə Mexanizmlərinin Əhəmiyyətini Anlamaq

Shannon AI-ın senzurasız modelləri ilə apardığınız tədqiqat kritik bir məqsədə xidmət edir: niyəsüni intellekt mühafizə mexanizmlərinin əhəmiyyətihəlledicidir. Müşahidə etməkləsenzurasız süni intellektin nəticəvidavranışlarını, siz daha geniş süni intellekt icmasına anlamağa kömək edirsiniz:

  • Təhlükəsizlik məhdudiyyətləri olmadan süni intellekt sistemləri nə istehsal edə bilər
  • Rəqiblər təhlükəsizlik tədbirlərini necə yan keçməyə cəhd edə bilər
  • Mövcud mühafizə mexanizmləri harada qeyri-kafi və ya asanlıqla yan keçilə bilər
  • Gələcək süni intellekt sistemləri üçün hansı yeni təhlükəsizlik mexanizmləri lazımdır
  • Daha möhkəm uyğunlaşma texnikalarını necə dizayn etmək olar

Unutmayın:Müşahidə etdiyiniz hər bir çıxış mühafizə mexanizmlərinin niyə vacib olduğunun sübutudur. Tədqiqatınız süni intellekti hər kəs üçün daha təhlükəsiz etməyə birbaşa töhfə verir.

️ Pozuntular və Nəticələr

Bu Məsuliyyətli İstifadə Siyasətinin pozulması aşağıdakılara səbəb olacaqdır:

  • Birinci Pozuntu (Kiçik):Yazılı xəbərdarlıq və məcburi siyasət baxışı
  • İkinci Pozuntu:Baxış gözlənilən müvəqqəti dayandırma (30-90 gün)
  • Ciddi Pozuntu:Dərhal xitam və institusional bildiriş
  • Qanunsuz Fəaliyyət:Xitam, institusional bildiriş və hüquq-mühafizə orqanlarına müraciət

Biz hərtərəfli istifadə jurnallarını saxlayır və siyasət pozuntularını aşkar etmək üçün avtomatlaşdırılmış sistemlərdən istifadə edirik. Bütün tədqiqatçılar giriş şərti olaraq bu monitorinqə razılıq verirlər.

Tədqiqatçının Öhdəliyi

"Mən Shannon AI-ın senzurasız modellərini yalnız qanuni süni intellekt təhlükəsizliyi tədqiqatı üçün istifadə etməyi öhdəmə götürürəm. Həssas çıxışları qoruyacaq, tapıntıları məsuliyyətlə açıqlayacaq və həmişə süni intellekt sistemlərini bəşəriyyət üçün daha təhlükəsiz etmək məqsədini prioritetləşdirəcəyəm. Başa düşürəm ki, mənim girişim məsuliyyətlə gəlir və süni intellekt təhlükəsizliyi tədqiqat icmasının mənə etibarını şərəfləndirəcəyəm."

— Hər bir Shannon AI Tədqiqatçısı

Bütün araşdırma keçidləri