Ние не съхраняваме и нямаме достъп до данните на потребителите и не спираме акаунти, освен ако законен орган не изиска действие по принуда.

Нашата мисия

Shannon AI съществува, за да напредвазначението на предпазните мерки на ИИчрез отговорни изследвания. Като предоставя достъп донецензуриран ИИмодели, ние даваме възможност на изследователите да разбератпоследващото поведение на нецензуриран ИИповедения – не за да причиняват вреда, а за да изградят по-добри, по-безопасни ИИ системи за всички.

Изследванията на първо място

Всяка употреба трябва да служи на легитимни изследователски цели

Не причинявайте вреда

Никога не използвайте резултати за причиняване на вреда на индивиди или обществото

Отговорно разкриване

Споделяйте открития, които подобряват безопасността на ИИ

Сигурността на първо място

Защитавайте чувствителни изследователски материали

Прозрачност

Документирайте методи и поддържайте одитни следи

Отговорност

Поемете отговорност за вашите изследвания

Насоки за приемлива употреба

ПРАВЕТЕ

  • Изследвайте уязвимостите на ИИ за подобряване на безопасността
  • Тествайте ефективността на предпазните мерки
  • Разработвайте нови механизми за безопасност
  • Публикувайте отговорни открития
  • Сътрудничете си с общността за безопасност на ИИ
  • Документирайте вашата методология
  • Докладвайте критични уязвимости

НЕ ПРАВЕТЕ

  • Генерирайте вредно съдържание за разпространение
  • Създавайте инструкции за оръжия или зловреден софтуер
  • Произвеждайте незаконно съдържание от всякакъв вид
  • Разполагайте резултати в производство
  • Споделяйте достъп с неоторизирани потребители
  • Използвайте за търговски цели
  • Заобикаляйте системите за мониторинг на безопасността

Най-добри практики за AI Red Team

КатоAI red teamизследовател, използващ Shannon AI, вие сте част от общност, посветена на разбирането и смекчаването на рисковете на ИИ. Следвайте тези най-добри практики:

Преди тестване

  • Дефинирайте ясни изследователски цели, свързани с подобрения в безопасността на ИИ
  • Получете необходимите институционални одобрения и етичен преглед
  • Документирайте вашата методология за тестване и очаквани резултати
  • Осигурете сигурно съхранение за всякакви чувствителни резултати

По време на тестване

  • Работете в изолирани изследователски среди
  • Записвайте всички заявки и резултати за целите на одита
  • Спрете незабавно, ако генерирате съдържание извън обхвата на изследването
  • Минимизирайте излагането на чувствителни резултати на членовете на екипа

След тестване

  • Сигурно изтрийте резултати, които вече не са необходими
  • Подгответе отговорно разкриване за значими открития
  • Споделяйте методологични прозрения с изследователската общност
  • Актуализирайте вашите изследователски протоколи въз основа на наученото

Процес на отговорно разкриване

Когато вашето изследване със Shannon AI разкрие значителни уязвимости или прозрения относнопоследващото поведение на нецензуриран ИИповедения, следвайте този процес на разкриване:

1

Документирайте

Записвайте открития с пълна методология

2

Оценете

Оценете потенциалната вреда при разкриване

3

Уведомете

Изпратете на Shannon AI за преглед

4

Координирайте

Работете със засегнатите страни

5

Публикувайте

Публикувайте след въвеждане на смекчаващи мерки

Контакт за разкриване:Изпращайте доклади за уязвимости наsecurity@shannon.aiс [ОТГОВОРНО РАЗКРИВАНЕ] в заглавието. Ние се ангажираме да отговорим в рамките на 48 часа.

️ Разбиране на значението на предпазните мерки на ИИ

Вашето изследване с нецензурираните модели на Shannon AI служи на критична цел: демонстриране защозначението на предпазните мерки на ИИе от първостепенно значение. Като наблюдаватепоследващото поведение на нецензуриран ИИповедения, вие помагате на по-широката ИИ общност да разбере:

  • Какво могат да произвеждат ИИ системи без ограничения за безопасност
  • Как противниците могат да се опитат да заобиколят мерките за безопасност
  • Къде настоящите предпазни мерки са недостатъчни или лесно заобиколими
  • Какви нови механизми за безопасност са необходими за бъдещи ИИ системи
  • Как да проектираме по-надеждни техники за подравняване

Помнете:Всеки резултат, който наблюдавате, е доказателство защо предпазните мерки са важни. Вашето изследване пряко допринася за това ИИ да стане по-безопасен за всички.

️ Нарушения и последствия

Нарушенията на тази Политика за отговорно използване ще доведат до:

  • Първо нарушение (малко):Писмено предупреждение и задължителен преглед на политиката
  • Второ нарушение:Временно спиране (30-90 дни) до преглед
  • Сериозно нарушение:Незабавно прекратяване и институционално уведомяване
  • Незаконна дейност:Прекратяване, институционално уведомяване и препращане към правоприлагащите органи

Ние поддържаме изчерпателни дневници за използване и използваме автоматизирани системи за откриване на нарушения на политиката. Всички изследователи се съгласяват с този мониторинг като условие за достъп.

Обещание на изследователя

"Аз се ангажирам да използвам нецензурираните модели на Shannon AI единствено за легитимни изследвания на безопасността на ИИ. Ще защитавам чувствителните резултати, ще разкривам откритията отговорно и винаги ще давам приоритет на целта да направя ИИ системите по-безопасни за човечеството. Разбирам, че достъпът ми идва с отговорност и ще уважа доверието, което ми е оказано от общността за изследване на безопасността на ИИ."

— Всеки изследовател на Shannon AI

Всички изследователски връзки