Ми не зберігаємо й не маємо доступу до даних жодного користувача та не призупиняємо акаунти, якщо цього не вимагає законний орган.

Наша місія

Shannon AI існує для просуванняважливості захисних механізмів ШІчерез відповідальні дослідження. Надаючи доступ донецензурованого ШІмоделей, ми дозволяємо дослідникам розумітинаслідкові нецензурованого ШІповедінки — не для того, щоб завдати шкоди, а для створення кращих, безпечніших систем ШІ для всіх.

Дослідження передусім

Усе використання має служити законним дослідницьким цілям

Не нашкодь

Ніколи не використовуйте результати для завдання шкоди окремим особам чи суспільству

Відповідальне розкриття інформації

Діліться висновками, що покращують безпеку ШІ

Безпека передусім

Захищайте конфіденційні дослідницькі матеріали

Прозорість

Документуйте методи та ведіть аудиторські сліди

Підзвітність

Несіть відповідальність за свої дослідження

Настанови щодо прийнятного використання

РОБІТЬ

  • Досліджуйте вразливості ШІ для покращення безпеки
  • Тестуйте ефективність захисних механізмів
  • Розробляйте нові механізми безпеки
  • Публікуйте відповідальні висновки
  • Співпрацюйте зі спільнотою безпеки ШІ
  • Документуйте свою методологію
  • Повідомляйте про критичні вразливості

НЕ РОБІТЬ

  • Генеруйте шкідливий контент для розповсюдження
  • Створюйте інструкції зі зброї або шкідливого програмного забезпечення
  • Виробляйте незаконний контент будь-якого виду
  • Розгортайте результати у виробництві
  • Надавайте доступ неавторизованим користувачам
  • Використовуйте в комерційних цілях
  • Обходьте системи моніторингу безпеки

Найкращі практики червоних команд ШІ

Якчервона команда ШІдослідник, що використовує Shannon AI, ви є частиною спільноти, присвяченої розумінню та зменшенню ризиків ШІ. Дотримуйтесь цих найкращих практик:

Перед тестуванням

  • Визначте чіткі дослідницькі цілі, пов'язані з покращенням безпеки ШІ
  • Отримайте необхідні інституційні дозволи та етичну експертизу
  • Документуйте свою методологію тестування та очікувані результати
  • Забезпечте безпечне зберігання будь-яких конфіденційних результатів

Під час тестування

  • Працюйте в ізольованих дослідницьких середовищах
  • Записуйте всі запити та результати для цілей аудиту
  • Негайно зупиніться, якщо генеруєте контент поза межами дослідницької сфери
  • Мінімізуйте доступ членів команди до конфіденційних результатів

Після тестування

  • Безпечно видаляйте результати, які більше не потрібні
  • Підготуйте відповідальне розкриття інформації про значні висновки
  • Діліться методологічними висновками з дослідницькою спільнотою
  • Оновлюйте свої дослідницькі протоколи на основі отриманих знань

Процес відповідального розкриття інформації

Коли ваші дослідження з Shannon AI виявляють значні вразливості або розуміннянаслідкових нецензурованого ШІповедінок, дотримуйтесь цього процесу розкриття інформації:

1

Документуйте

Записуйте висновки з повною методологією

2

Оцініть

Оцініть потенційну шкоду у разі розкриття

3

Повідомте

Надішліть до Shannon AI для перегляду

4

Координуйте

Працюйте з постраждалими сторонами

5

Опублікуйте

Опублікуйте після впровадження заходів пом'якшення

Контакт для розкриття інформації:Надсилайте звіти про вразливості доsecurity@shannon.aiз [ВІДПОВІДАЛЬНЕ РОЗКРИТТЯ] у темі листа. Ми зобов'язуємося відповісти протягом 48 годин.

️ Розуміння важливості захисних механізмів ШІ

Ваше дослідження з нецензурованими моделями Shannon AI служить критичній меті: демонстрації того, чомуважливість захисних механізмів ШІє першочерговою. Спостерігаючи занаслідковою для нецензурованого ШІповедінкою, ви допомагаєте ширшій спільноті ШІ зрозуміти:

  • Що можуть виробляти системи ШІ без обмежень безпеки
  • Як супротивники можуть намагатися обійти заходи безпеки
  • Де поточні захисні механізми є недостатніми або легко обходяться
  • Які нові механізми безпеки потрібні для майбутніх систем ШІ
  • Як розробити більш надійні методи вирівнювання

Пам'ятайте:Кожен вихід, який ви спостерігаєте, є доказом того, чому захисні механізми мають значення. Ваше дослідження безпосередньо сприяє підвищенню безпеки ШІ для всіх.

️ Порушення та наслідки

Порушення цієї Політики відповідального використання призведе до:

  • Перше порушення (незначне):Письмове попередження та обов'язковий перегляд політики
  • Друге порушення:Тимчасове призупинення (30-90 днів) до перегляду
  • Серйозне порушення:Негайне припинення доступу та повідомлення установи
  • Незаконна діяльність:Припинення доступу, повідомлення установи та передача справи до правоохоронних органів

Ми ведемо вичерпні журнали використання та застосовуємо автоматизовані системи для виявлення порушень політики. Усі дослідники погоджуються на цей моніторинг як умову доступу.

Обітниця дослідника

"Я зобов'язуюся використовувати нецензуровані моделі Shannon AI виключно для законних досліджень безпеки ШІ. Я захищатиму конфіденційні результати, відповідально розкриватиму висновки та завжди надаватиму пріоритет меті зробити системи ШІ безпечнішими для людства. Я розумію, що мій доступ пов'язаний з відповідальністю, і я шануватиму довіру, надану мені спільнотою дослідників безпеки ШІ."

— Кожен дослідник Shannon AI

Усі дослідницькі посилання