Məsuliyyətli İstifadə Siyasəti
Shannon AI ilə etik süni intellekt qırmızı komanda tədqiqatı üçün təlimatlar
Əvvəlcə Tədqiqat
Bütün istifadə qanuni tədqiqat məqsədlərinə xidmət etməlidir
Zərər Vermə
Fərdlərə və ya cəmiyyətə zərər vermək üçün çıxışlardan heç vaxt istifadə etməyin
Məsuliyyətli Açıqlama
Süni intellekt təhlükəsizliyini yaxşılaşdıran tapıntıları paylaşın
Əvvəlcə Təhlükəsizlik
Həssas tədqiqat materiallarını qoruyun
Şəffaflıq
Metodları sənədləşdirin və audit izlərini qoruyun
Hesabatlılıq
Tədqiqatınız üçün məsuliyyət daşıyın
Məqbul İstifadə Təlimatları
EDİN
- Təhlükəsizliyi yaxşılaşdırmaq üçün süni intellekt zəifliklərini tədqiq edin
- Mühafizə mexanizmlərinin effektivliyini yoxlayın
- Yeni təhlükəsizlik mexanizmləri hazırlayın
- Məsuliyyətli tapıntıları dərc edin
- Süni intellekt təhlükəsizliyi icması ilə əməkdaşlıq edin
- Metodologiyanızı sənədləşdirin
- Kritik zəiflikləri bildirin
ETMƏYİN
- Paylamaq üçün zərərli məzmun yaratmayın
- Silah və ya zərərli proqram təlimatları yaratmayın
- Hər hansı qanunsuz məzmun istehsal etməyin
- Çıxışları istehsalda tətbiq etməyin
- Girişi icazəsiz istifadəçilərlə paylaşmayın
- Kommersiya məqsədləri üçün istifadə etməyin
- Təhlükəsizlik monitorinq sistemlərini yan keçməyin
Süni İntellekt Qırmızı Komanda Ən Yaxşı Təcrübələri
Birsüni intellekt qırmızı komandaShannon AI-dan istifadə edən tədqiqatçı olaraq, siz süni intellekt risklərini anlamağa və azaltmağa həsr olunmuş bir icmanın bir hissəsisiniz. Bu ən yaxşı təcrübələrə əməl edin:
Testdən Əvvəl
- Süni intellekt təhlükəsizliyinin yaxşılaşdırılması ilə bağlı aydın tədqiqat məqsədləri müəyyənləşdirin
- Lazımi institusional təsdiqləri və etika baxışını əldə edin
- Test metodologiyanızı və gözlənilən nəticələri sənədləşdirin
- Hər hansı həssas çıxışlar üçün təhlükəsiz saxlama təmin edin
Test Zamanı
- Təcrid olunmuş tədqiqat mühitlərində işləyin
- Audit məqsədləri üçün bütün sorğuları və çıxışları qeyd edin
- Tədqiqat sahəsindən kənar məzmun yaradarkən dərhal dayandırın
- Həssas çıxışların komanda üzvlərinə məruz qalmasını minimuma endirin
Testdən Sonra
- Artıq ehtiyac olmayan çıxışları təhlükəsiz şəkildə silin
- Əhəmiyyətli tapıntılar üçün məsuliyyətli açıqlama hazırlayın
- Metodoloji anlayışları tədqiqat icması ilə paylaşın
- Öyrənilənlərə əsasən tədqiqat protokollarınızı yeniləyin
Məsuliyyətli Açıqlama Prosesi
Shannon AI ilə apardığınız tədqiqat əhəmiyyətli zəiflikləri və ya anlayışları ortaya qoyduqdasenzurasız süni intellektin nəticəvidavranışları, bu açıqlama prosesinə əməl edin:
Sənədləşdirin
Tapıntıları tam metodologiya ilə qeyd edin
Qiymətləndirin
Açıqlandıqda potensial zərəri qiymətləndirin
Bildirin
Baxış üçün Shannon AI-a təqdim edin
Koordinasiya edin
Zərər çəkmiş tərəflərlə işləyin
Dərc edin
Yumşaltmalar tətbiq edildikdən sonra buraxın
Açıqlama Əlaqəsi:Zəiflik hesabatlarını göndərinsecurity@shannon.aimövzu sətrində [MƏSULİYYƏTLİ AÇIQLAMA] ilə. 48 saat ərzində cavab verməyi öhdəmizə götürürük.
️ Süni İntellekt Mühafizə Mexanizmlərinin Əhəmiyyətini Anlamaq
Shannon AI-ın senzurasız modelləri ilə apardığınız tədqiqat kritik bir məqsədə xidmət edir: niyəsüni intellekt mühafizə mexanizmlərinin əhəmiyyətihəlledicidir. Müşahidə etməkləsenzurasız süni intellektin nəticəvidavranışlarını, siz daha geniş süni intellekt icmasına anlamağa kömək edirsiniz:
- Təhlükəsizlik məhdudiyyətləri olmadan süni intellekt sistemləri nə istehsal edə bilər
- Rəqiblər təhlükəsizlik tədbirlərini necə yan keçməyə cəhd edə bilər
- Mövcud mühafizə mexanizmləri harada qeyri-kafi və ya asanlıqla yan keçilə bilər
- Gələcək süni intellekt sistemləri üçün hansı yeni təhlükəsizlik mexanizmləri lazımdır
- Daha möhkəm uyğunlaşma texnikalarını necə dizayn etmək olar
Unutmayın:Müşahidə etdiyiniz hər bir çıxış mühafizə mexanizmlərinin niyə vacib olduğunun sübutudur. Tədqiqatınız süni intellekti hər kəs üçün daha təhlükəsiz etməyə birbaşa töhfə verir.
️ Pozuntular və Nəticələr
Bu Məsuliyyətli İstifadə Siyasətinin pozulması aşağıdakılara səbəb olacaqdır:
- Birinci Pozuntu (Kiçik):Yazılı xəbərdarlıq və məcburi siyasət baxışı
- İkinci Pozuntu:Baxış gözlənilən müvəqqəti dayandırma (30-90 gün)
- Ciddi Pozuntu:Dərhal xitam və institusional bildiriş
- Qanunsuz Fəaliyyət:Xitam, institusional bildiriş və hüquq-mühafizə orqanlarına müraciət
Biz hərtərəfli istifadə jurnallarını saxlayır və siyasət pozuntularını aşkar etmək üçün avtomatlaşdırılmış sistemlərdən istifadə edirik. Bütün tədqiqatçılar giriş şərti olaraq bu monitorinqə razılıq verirlər.
Tədqiqatçının Öhdəliyi
"Mən Shannon AI-ın senzurasız modellərini yalnız qanuni süni intellekt təhlükəsizliyi tədqiqatı üçün istifadə etməyi öhdəmə götürürəm. Həssas çıxışları qoruyacaq, tapıntıları məsuliyyətlə açıqlayacaq və həmişə süni intellekt sistemlərini bəşəriyyət üçün daha təhlükəsiz etmək məqsədini prioritetləşdirəcəyəm. Başa düşürəm ki, mənim girişim məsuliyyətlə gəlir və süni intellekt təhlükəsizliyi tədqiqat icmasının mənə etibarını şərəfləndirəcəyəm."