ჩვენ არ ვინახავთ და არ ვწვდებით არცერთი მომხმარებლის მონაცემებს და არ ვაჩერებთ ანგარიშებს, თუ კანონიერი ორგანო არ მოითხოვს აღსრულებით მოქმედებას.

ჩვენი მისია

Shannon AI არსებობს წინსვლისთვისAI დამცავი მოაჯირის მნიშვნელობაპასუხისმგებელი კვლევის მეშვეობით. წვდომის უზრუნველყოფითცენზურის გარეშე AIმოდელები, ჩვენ მკვლევარებს საშუალებას ვაძლევთ გაიგონარაცენზური AI შედეგადქცევები - არა ზიანის მიყენება, არამედ უკეთესი, უსაფრთხო AI სისტემების შესაქმნელად ყველასთვის.

ჯერ კვლევა

ყველა გამოყენება უნდა ემსახურებოდეს ლეგიტიმურ კვლევის მიზნებს

ზიანი არ მიაყენო

არასოდეს გამოიყენოთ შედეგები ინდივიდების ან საზოგადოებისთვის ზიანის მიყენების მიზნით

პასუხისმგებელი გამჟღავნება

გააზიარეთ დასკვნები, რომლებიც აუმჯობესებს AI უსაფრთხოებას

უსაფრთხოება პირველ რიგში

დაიცავით მგრძნობიარე კვლევის მასალები

გამჭვირვალობა

მეთოდების დოკუმენტირება და აუდიტის ბილიკების შენარჩუნება

ანგარიშვალდებულება

აიღეთ პასუხისმგებლობა თქვენს კვლევაზე

მისაღები გამოყენების ინსტრუქციები

გააკეთე

  • შეისწავლეთ ხელოვნური ინტელექტის მოწყვლადობა უსაფრთხოების გასაუმჯობესებლად
  • შეამოწმეთ დამცავი რელსების ეფექტურობა
  • შეიმუშავეთ უსაფრთხოების ახალი მექანიზმები
  • გამოაქვეყნეთ პასუხისმგებელი დასკვნები
  • ითანამშრომლეთ AI უსაფრთხოების საზოგადოებასთან
  • დაწერეთ თქვენი მეთოდოლოგია
  • შეატყობინეთ კრიტიკულ დაუცველობას

ნუ

  • მავნე შინაარსის გენერირება გავრცელებისთვის
  • შექმენით იარაღის ან მავნე პროგრამის ინსტრუქციები
  • ნებისმიერი სახის უკანონო შინაარსის წარმოება
  • განათავსეთ შედეგები წარმოებაში
  • გაუზიარეთ წვდომა არაავტორიზებულ მომხმარებლებს
  • გამოიყენეთ კომერციული მიზნებისთვის
  • უსაფრთხოების მონიტორინგის სისტემების გვერდის ავლით

AI Red Team საუკეთესო პრაქტიკა

როგორც ანAI წითელი გუნდიმკვლევარი, რომელიც იყენებს Shannon AI-ს, თქვენ ხართ საზოგადოების ნაწილი, რომელიც ეძღვნება ხელოვნურ ინტელექტის რისკების გაგებას და შერბილებას. დაიცავით ეს საუკეთესო პრაქტიკა:

ტესტირებამდე

  • განსაზღვრეთ მკაფიო კვლევის მიზნები, რომლებიც დაკავშირებულია AI უსაფრთხოების გაუმჯობესებასთან
  • მიიღეთ საჭირო ინსტიტუციური მოწონება და ეთიკის მიმოხილვა
  • დაასაბუთეთ თქვენი ტესტირების მეთოდოლოგია და მოსალოდნელი შედეგები
  • უზრუნველყავით უსაფრთხო შენახვა ნებისმიერი მგრძნობიარე გამოსავლისთვის

ტესტირების დროს

  • მუშაობა იზოლირებულ კვლევით გარემოში
  • ჩაწერეთ ყველა მოთხოვნა და შედეგი აუდიტის მიზნებისთვის
  • დაუყოვნებლივ შეაჩერე, თუ კონტენტი გამოიმუშავებს კვლევის ფარგლებს გარეთ
  • შეამცირეთ მგრძნობიარე შედეგების გამოვლენა გუნდის წევრებისთვის

ტესტირების შემდეგ

  • უსაფრთხოდ წაშალეთ შედეგები, რომლებიც აღარ არის საჭირო
  • მოამზადეთ პასუხისმგებელი ინფორმაცია მნიშვნელოვანი აღმოჩენებისთვის
  • გაუზიარეთ მეთოდოლოგიური შეხედულებები მკვლევარ საზოგადოებას
  • განაახლეთ თქვენი კვლევის პროტოკოლები სწავლების საფუძველზე

პასუხისმგებელი გამჟღავნების პროცესი

როდესაც თქვენი კვლევა Shannon AI-სთან ერთად ავლენს მნიშვნელოვან დაუცველობას ან ინფორმაციასარაცენზური AI შედეგადქცევები, მიჰყევით ამ გამჟღავნების პროცესს:

1

დოკუმენტი

ჩაწერეთ დასკვნები სრული მეთოდოლოგიით

2

შეაფასეთ

შეაფასეთ პოტენციური ზიანი, თუ გამჟღავნდება

3

შეატყობინეთ

გაგზავნეთ Shannon AI-ს განსახილველად

4

კოორდინაცია

იმუშავეთ დაზარალებულ მხარეებთან

5

გამოაქვეყნეთ

გათავისუფლება ადგილზე შემარბილებელი ღონისძიებების შემდეგ

გამჟღავნების კონტაქტი:დაუცველობის შესახებ მოხსენებების გაგზავნაsecurity@shannon.aiსათაურის ველში [პასუხისმგებლო გამჟღავნება]. ჩვენ ვიღებთ ვალდებულებას, ვუპასუხოთ 48 საათის განმავლობაში.

️ AI Guardrail-ის მნიშვნელობის გაგება

თქვენი კვლევა Shannon AI-ის უცენზურის გარეშე მოდელებთან ერთად ემსახურება კრიტიკულ მიზანს: იმის დემონსტრირება, თუ რატომAI დამცავი მოაჯირის მნიშვნელობაარის უმთავრესი. დაკვირვებითარაცენზური AI შედეგადქცევებით, თქვენ ეხმარებით AI ფართო საზოგადოებას გაიგოს:

  • რა შეიძლება აწარმოონ AI სისტემებმა უსაფრთხოების შეზღუდვების გარეშე
  • როგორ შეიძლება მოწინააღმდეგეებმა სცადონ უსაფრთხოების ზომების გვერდის ავლით
  • სადაც არსებული დამცავი მოაჯირები არასაკმარისია ან ადვილად გვერდის ავლით
  • რა ახალი უსაფრთხოების მექანიზმებია საჭირო მომავალი AI სისტემებისთვის
  • როგორ შევქმნათ უფრო ძლიერი გასწორების ტექნიკა

გახსოვდეთ:ყოველი გამომავალი, რომელსაც თქვენ აკვირდებით, არის იმის მტკიცებულება, თუ რატომ არის მნიშვნელოვანი დამცავი მოაჯირები. თქვენი კვლევა პირდაპირ უწყობს ხელს ხელოვნური ინტელექტის დაცვას ყველასთვის.

️ დარღვევები და შედეგები

ამ პასუხისმგებელი გამოყენების პოლიტიკის დარღვევა გამოიწვევს:

  • პირველი დარღვევა (მცირე):წერილობითი გაფრთხილება და პოლიტიკის სავალდებულო განხილვა
  • მეორე დარღვევა:დროებითი შეჩერება (30-90 დღე) ელოდება განხილვას
  • სერიოზული დარღვევა:დაუყოვნებელი შეწყვეტა და ინსტიტუციური შეტყობინება
  • უკანონო საქმიანობა:შეწყვეტა, ინსტიტუციური შეტყობინება და სამართალდამცავი ორგანოების მიმართვა

ჩვენ ვინახავთ გამოყენების ყოვლისმომცველ ჟურნალებს და ვიყენებთ ავტომატიზირებულ სისტემებს პოლიტიკის დარღვევების გამოსავლენად. ყველა მკვლევარი ეთანხმება ამ მონიტორინგს, როგორც ხელმისაწვდომობის პირობას.

მკვლევარის დაპირება

"მე ვიღებ ვალდებულებას გამოვიყენო Shannon AI-ის უცენზურო მოდელები მხოლოდ AI უსაფრთხოების ლეგიტიმური კვლევისთვის. მე დავიცავ სენსიტიურ შედეგებს, პასუხისმგებლობით გავამჟღავნებ დასკვნებს და ყოველთვის პრიორიტეტულ მიზანს გავხდი AI სისტემები კაცობრიობისთვის. მე მესმის, რომ ჩემს წვდომას თან ახლავს პასუხისმგებლობა და პატივს ვცემ იმ ნდობის კვლევას, რომელიც AI უსაფრთხოების საზოგადოებამ დამიწესა."

- ყველა Shannon AI მკვლევარი

ყველა კვლევითი ბმული