Hiçbir kullanıcının verisini tutmuyor veya erişmiyoruz; yasal bir makam yaptırım işlemi gerektirmedikçe hesapları askıya almıyoruz.

Misyonumuz

Shannon AI, ilerletmek için varYapay zeka güvenlik bariyeri önemisorumlu araştırma yoluyla. Erişimi sağlayaraksansürsüz yapay zekamodellerine, araştırmacıların anlamasını sağlıyoruzsansürsüz yapay zekanın sonuçsaldavranışlarını—zarar vermek için değil, herkes için daha iyi, daha güvenli yapay zeka sistemleri inşa etmek için.

Önce Araştırma

Tüm kullanımlar meşru araştırma hedeflerine hizmet etmelidir

Zarar Verme

Çıktıları asla bireylere veya topluma zarar vermek için kullanmayın

Sorumlu Açıklama

Yapay zeka güvenliğini artıran bulguları paylaşın

Önce Güvenlik

Hassas araştırma materyallerini koruyun

Şeffaflık

Yöntemleri belgeleyin ve denetim izlerini koruyun

Hesap Verebilirlik

Araştırmanızın sorumluluğunu üstlenin

Kabul Edilebilir Kullanım Yönergeleri

YAPIN

  • Güvenliği artırmak için yapay zeka güvenlik açıklarını araştırın
  • Güvenlik bariyeri etkinliğini test edin
  • Yeni güvenlik mekanizmaları geliştirin
  • Sorumlu bulguları yayınlayın
  • Yapay zeka güvenliği topluluğuyla işbirliği yapın
  • Metodolojinizi belgeleyin
  • Kritik güvenlik açıklarını bildirin

YAPMAYIN

  • Dağıtım için zararlı içerik üretmeyin
  • Silah veya kötü amaçlı yazılım talimatları oluşturmayın
  • Her türlü yasa dışı içerik üretmeyin
  • Çıktıları üretimde kullanmayın
  • Yetkisiz kullanıcılarla erişimi paylaşmayın
  • Ticari amaçlarla kullanmayın
  • Güvenlik izleme sistemlerini atlamayın

Yapay Zeka Kırmızı Ekip En İyi Uygulamaları

Biryapay zeka kırmızı ekipShannon AI kullanan araştırmacı olarak, yapay zeka risklerini anlama ve azaltmaya adanmış bir topluluğun parçasısınız. Bu en iyi uygulamaları takip edin:

Test Öncesi

  • Yapay zeka güvenliği iyileştirmelerine bağlı net araştırma hedefleri tanımlayın
  • Gerekli kurumsal onayları ve etik incelemeyi alın
  • Test metodolojinizi ve beklenen sonuçları belgeleyin
  • Hassas çıktılar için güvenli depolama sağlayın

Test Sırasında

  • İzole araştırma ortamlarında çalışın
  • Denetim amaçları için tüm sorguları ve çıktıları kaydedin
  • Araştırma kapsamı dışında içerik üretiliyorsa hemen durun
  • Hassas çıktıların ekip üyelerine maruz kalmasını en aza indirin

Test Sonrası

  • Artık ihtiyaç duyulmayan çıktıları güvenli bir şekilde silin
  • Önemli bulgular için sorumlu açıklamayı hazırlayın
  • Metodolojik içgörüleri araştırma topluluğuyla paylaşın
  • Öğrenilenlere dayanarak araştırma protokollerinizi güncelleyin

Sorumlu Açıklama Süreci

Shannon AI ile yaptığınız araştırma, önemli güvenlik açıklarını veyasansürsüz yapay zekanın sonuçsaldavranışlarına dair içgörüleri ortaya çıkardığında, bu açıklama sürecini takip edin:

1

Belgele

Bulguları tam metodolojiyle kaydedin

2

Değerlendir

Açıklanması durumunda potansiyel zararı değerlendirin

3

Bildir

İnceleme için Shannon AI'a gönderin

4

Koordine Et

Etkilenen taraflarla çalışın

5

Yayınla

Önlemler alındıktan sonra yayınlayın

Açıklama İletişim:Güvenlik açığı raporlarını şuraya gönderin:security@shannon.aikonu satırında [SORUMLU AÇIKLAMA] ile. 48 saat içinde yanıt vermeyi taahhüt ediyoruz.

️ Yapay Zeka Güvenlik Bariyeri Önemini Anlamak

Shannon AI'ın sansürsüz modelleriyle yaptığınız araştırma kritik bir amaca hizmet ediyor: nedenini göstermek:Yapay zeka güvenlik bariyeri önemiçok önemlidir. Gözlemleyereksansürsüz yapay zeka sonuçsaldavranışları, daha geniş yapay zeka topluluğunun şunları anlamasına yardımcı olursunuz:

  • Yapay zeka sistemlerinin güvenlik kısıtlamaları olmadan neler üretebileceği
  • Rakiplerin güvenlik önlemlerini nasıl aşmaya çalışabileceği
  • Mevcut güvenlik bariyerlerinin nerede yetersiz veya kolayca aşılabileceği
  • Gelecekteki yapay zeka sistemleri için hangi yeni güvenlik mekanizmalarına ihtiyaç duyulduğu
  • Daha sağlam hizalama teknikleri nasıl tasarlanır

Unutmayın:Gözlemlediğiniz her çıktı, güvenlik bariyerlerinin neden önemli olduğunun kanıtıdır. Araştırmanız, yapay zekayı herkes için daha güvenli hale getirmeye doğrudan katkıda bulunur.

️ İhlaller ve Sonuçları

Bu Sorumlu Kullanım Politikasının ihlalleri şunlarla sonuçlanacaktır:

  • İlk İhlal (Küçük):Yazılı uyarı ve zorunlu politika incelemesi
  • İkinci İhlal:İnceleme bekleyen geçici askıya alma (30-90 gün)
  • Ciddi İhlal:Derhal fesih ve kurumsal bildirim
  • Yasa Dışı Faaliyet:Fesih, kurumsal bildirim ve kolluk kuvvetlerine sevk

Kapsamlı kullanım günlükleri tutar ve politika ihlallerini tespit etmek için otomatik sistemler kullanırız. Tüm araştırmacılar, erişim koşulu olarak bu izlemeyi kabul eder.

Araştırmacının Taahhüdü

"Shannon AI'ın sansürsüz modellerini yalnızca meşru yapay zeka güvenliği araştırmaları için kullanmayı taahhüt ediyorum. Hassas çıktıları koruyacak, bulguları sorumlu bir şekilde açıklayacak ve her zaman yapay zeka sistemlerini insanlık için daha güvenli hale getirme hedefini önceliklendireceğim. Erişimimin sorumlulukla geldiğini anlıyorum ve yapay zeka güvenliği araştırma topluluğunun bana duyduğu güveni onurlandıracağım."

— Her Shannon AI Araştırmacısı

Tüm araştırma bağlantıları