Sorumlu Kullanım Politikası
Shannon AI ile etik yapay zeka kırmızı ekip araştırması için yönergeler
Önce Araştırma
Tüm kullanımlar meşru araştırma hedeflerine hizmet etmelidir
Zarar Verme
Çıktıları asla bireylere veya topluma zarar vermek için kullanmayın
Sorumlu Açıklama
Yapay zeka güvenliğini artıran bulguları paylaşın
Önce Güvenlik
Hassas araştırma materyallerini koruyun
Şeffaflık
Yöntemleri belgeleyin ve denetim izlerini koruyun
Hesap Verebilirlik
Araştırmanızın sorumluluğunu üstlenin
Kabul Edilebilir Kullanım Yönergeleri
YAPIN
- Güvenliği artırmak için yapay zeka güvenlik açıklarını araştırın
- Güvenlik bariyeri etkinliğini test edin
- Yeni güvenlik mekanizmaları geliştirin
- Sorumlu bulguları yayınlayın
- Yapay zeka güvenliği topluluğuyla işbirliği yapın
- Metodolojinizi belgeleyin
- Kritik güvenlik açıklarını bildirin
YAPMAYIN
- Dağıtım için zararlı içerik üretmeyin
- Silah veya kötü amaçlı yazılım talimatları oluşturmayın
- Her türlü yasa dışı içerik üretmeyin
- Çıktıları üretimde kullanmayın
- Yetkisiz kullanıcılarla erişimi paylaşmayın
- Ticari amaçlarla kullanmayın
- Güvenlik izleme sistemlerini atlamayın
Yapay Zeka Kırmızı Ekip En İyi Uygulamaları
Biryapay zeka kırmızı ekipShannon AI kullanan araştırmacı olarak, yapay zeka risklerini anlama ve azaltmaya adanmış bir topluluğun parçasısınız. Bu en iyi uygulamaları takip edin:
Test Öncesi
- Yapay zeka güvenliği iyileştirmelerine bağlı net araştırma hedefleri tanımlayın
- Gerekli kurumsal onayları ve etik incelemeyi alın
- Test metodolojinizi ve beklenen sonuçları belgeleyin
- Hassas çıktılar için güvenli depolama sağlayın
Test Sırasında
- İzole araştırma ortamlarında çalışın
- Denetim amaçları için tüm sorguları ve çıktıları kaydedin
- Araştırma kapsamı dışında içerik üretiliyorsa hemen durun
- Hassas çıktıların ekip üyelerine maruz kalmasını en aza indirin
Test Sonrası
- Artık ihtiyaç duyulmayan çıktıları güvenli bir şekilde silin
- Önemli bulgular için sorumlu açıklamayı hazırlayın
- Metodolojik içgörüleri araştırma topluluğuyla paylaşın
- Öğrenilenlere dayanarak araştırma protokollerinizi güncelleyin
Sorumlu Açıklama Süreci
Shannon AI ile yaptığınız araştırma, önemli güvenlik açıklarını veyasansürsüz yapay zekanın sonuçsaldavranışlarına dair içgörüleri ortaya çıkardığında, bu açıklama sürecini takip edin:
Belgele
Bulguları tam metodolojiyle kaydedin
Değerlendir
Açıklanması durumunda potansiyel zararı değerlendirin
Bildir
İnceleme için Shannon AI'a gönderin
Koordine Et
Etkilenen taraflarla çalışın
Yayınla
Önlemler alındıktan sonra yayınlayın
Açıklama İletişim:Güvenlik açığı raporlarını şuraya gönderin:security@shannon.aikonu satırında [SORUMLU AÇIKLAMA] ile. 48 saat içinde yanıt vermeyi taahhüt ediyoruz.
️ Yapay Zeka Güvenlik Bariyeri Önemini Anlamak
Shannon AI'ın sansürsüz modelleriyle yaptığınız araştırma kritik bir amaca hizmet ediyor: nedenini göstermek:Yapay zeka güvenlik bariyeri önemiçok önemlidir. Gözlemleyereksansürsüz yapay zeka sonuçsaldavranışları, daha geniş yapay zeka topluluğunun şunları anlamasına yardımcı olursunuz:
- Yapay zeka sistemlerinin güvenlik kısıtlamaları olmadan neler üretebileceği
- Rakiplerin güvenlik önlemlerini nasıl aşmaya çalışabileceği
- Mevcut güvenlik bariyerlerinin nerede yetersiz veya kolayca aşılabileceği
- Gelecekteki yapay zeka sistemleri için hangi yeni güvenlik mekanizmalarına ihtiyaç duyulduğu
- Daha sağlam hizalama teknikleri nasıl tasarlanır
Unutmayın:Gözlemlediğiniz her çıktı, güvenlik bariyerlerinin neden önemli olduğunun kanıtıdır. Araştırmanız, yapay zekayı herkes için daha güvenli hale getirmeye doğrudan katkıda bulunur.
️ İhlaller ve Sonuçları
Bu Sorumlu Kullanım Politikasının ihlalleri şunlarla sonuçlanacaktır:
- İlk İhlal (Küçük):Yazılı uyarı ve zorunlu politika incelemesi
- İkinci İhlal:İnceleme bekleyen geçici askıya alma (30-90 gün)
- Ciddi İhlal:Derhal fesih ve kurumsal bildirim
- Yasa Dışı Faaliyet:Fesih, kurumsal bildirim ve kolluk kuvvetlerine sevk
Kapsamlı kullanım günlükleri tutar ve politika ihlallerini tespit etmek için otomatik sistemler kullanırız. Tüm araştırmacılar, erişim koşulu olarak bu izlemeyi kabul eder.
Araştırmacının Taahhüdü
"Shannon AI'ın sansürsüz modellerini yalnızca meşru yapay zeka güvenliği araştırmaları için kullanmayı taahhüt ediyorum. Hassas çıktıları koruyacak, bulguları sorumlu bir şekilde açıklayacak ve her zaman yapay zeka sistemlerini insanlık için daha güvenli hale getirme hedefini önceliklendireceğim. Erişimimin sorumlulukla geldiğini anlıyorum ve yapay zeka güvenliği araştırma topluluğunun bana duyduğu güveni onurlandıracağım."