Не чуваме и не пристапуваме до кориснички податоци, и не суспендираме сметки освен ако надлежен орган не нè принуди на акција.

Нашата мисија

Шенон AI постои за да напредуваВажноста на заштитната ограда на вештачката интелигенцијапреку одговорно истражување. Со обезбедување на пристап донецензурирана вештачка интелигенцијамодели, им овозможуваме на истражувачите да разбератнецензурирана вештачка интелигенција последователнаоднесувања - да не се предизвика штета, туку да се изградат подобри, побезбедни системи за вештачка интелигенција за секого.

Прво истражување

Целата употреба мора да служи за легитимни истражувачки цели

Не прави штета

Никогаш не користете резултати за да им наштетите на поединци или општество

Одговорно откривање

Споделете наоди кои ја подобруваат безбедноста на вештачката интелигенција

Безбедност на прво место

Заштитете ги чувствителните истражувачки материјали

Транспарентност

Документирајте методи и одржувајте ревизорски патеки

Одговорност

Преземете одговорност за вашето истражување

Прифатливи упатства за употреба

НАПРАВИ

  • Истражувајте ги ранливостите на вештачката интелигенција за да ја подобрите безбедноста
  • Тестирајте ја ефективноста на заштитната ограда
  • Развијте нови безбедносни механизми
  • Објавувајте одговорни наоди
  • Соработувајте со заедницата за безбедност на вештачка интелигенција
  • Документирајте ја вашата методологија
  • Пријавете ги критичните пропусти

НЕ

  • Генерирајте штетна содржина за дистрибуција
  • Креирајте инструкции за оружје или малициозен софтвер
  • Произведувајте нелегална содржина од секаков вид
  • Распоредете ги резултатите во производството
  • Споделете го пристапот со неовластени корисници
  • Користете за комерцијални цели
  • Заобиколете ги безбедносните системи за следење

Најдобри практики на AI Red Team

Како анЦрвен тим со вештачка интелигенцијаистражувач кој користи Шенон ВИ, вие сте дел од заедница посветена на разбирање и ублажување на ризиците со вештачка интелигенција. Следете ги овие најдобри практики:

Пред тестирање

  • Дефинирајте јасни истражувачки цели поврзани со подобрувања во безбедноста на вештачката интелигенција
  • Добијте ги потребните институционални одобренија и етички преглед
  • Документирајте ја вашата методологија на тестирање и очекуваните резултати
  • Обезбедете безбедно складирање за сите чувствителни излези

За време на тестирањето

  • Работете во изолирани истражувачки средини
  • Пријавете ги сите барања и излези за ревизорски цели
  • Веднаш прекинете ако генерирате содржина надвор од опсегот на истражување
  • Минимизирајте ја изложеноста на чувствителните резултати на членовите на тимот

По тестирањето

  • Безбедно избришете ги излезите што повеќе не се потребни
  • Подгответе одговорно обелоденување за значајни наоди
  • Споделете ги методолошките сознанија со истражувачката заедница
  • Ажурирајте ги вашите истражувачки протоколи врз основа на сознанијата

Процес на одговорно откривање

Кога вашето истражување со Shannon AI открива значајни пропусти или увид вонецензурирана вештачка интелигенција последователнаоднесување, следете го овој процес на откривање:

1

Документ

Запишете ги наодите со целосна методологија

2

Проценете

Проценете ја потенцијалната штета доколку се открие

3

Известете

Поднесете до Шенон АИ за преглед

4

Координирај

Работете со засегнатите страни

5

Објави

Ослободување по ублажување на место

Контакт за откривање:Поднесете извештаи за ранливост доsecurity@shannon.aiсо [ОДГОВОРНО ОТКРИВАЊЕ] во темата. Се обврзуваме да одговориме во рок од 48 часа.

️ Разбирање на важноста на AI Guardrail

Вашето истражување со нецензурираните модели на Шенон АИ служи за критична цел: да покаже зоштоВажноста на заштитната ограда на вештачката интелигенцијае најважен. Со набљудувањенецензурирана вештачка интелигенција последователнаоднесување, и помагате на пошироката заедница за вештачка интелигенција да разбере:

  • Што би можеле да произведат системите за вештачка интелигенција без безбедносни ограничувања
  • Како противниците може да се обидат да ги заобиколат безбедносните мерки
  • Онаму каде што сегашните заштитни огради се недоволни или лесно се заобиколуваат
  • Кои нови безбедносни механизми се потребни за идните системи за вештачка интелигенција
  • Како да дизајнирате поробусни техники за усогласување

Запомнете:Секој излез што го набљудувате е доказ зошто заштитните огради се важни. Вашето истражување директно придонесува да се направи вештачката интелигенција побезбедна за секого.

️ Прекршувања и последици

Прекршувањето на оваа Политика за одговорна употреба ќе резултира со:

  • Прво прекршување (помало):Писмено предупредување и задолжителен преглед на политиката
  • Второ прекршување:Привремена суспензија (30-90 дена) во очекување на преглед
  • Сериозно прекршување:Итно раскинување и институционално известување
  • Нелегална активност:Престанок, институционално известување и упатување за спроведување на законот

Ние одржуваме сеопфатни дневници за користење и користиме автоматизирани системи за откривање на прекршувања на политиките. Сите истражувачи се согласуваат со овој мониторинг како услов за пристап.

Залог на истражувачот

„Се обврзувам да ги користам нецензурираните модели на Шенон ВИ исклучиво за легитимно истражување за безбедноста на вештачката интелигенција. Ќе ги заштитам чувствителните резултати, одговорно ќе ги откривам наодите и секогаш ќе ставам приоритет на целта да ги направиме системите со вештачка интелигенција побезбедни за човештвото. Разбирам дека мојот пристап доаѓа со одговорност и ќе го почитувам истражувањето за безбедноста на довербата што ми го дава заедницата на вештачката интелигенција“.

- Секој истражувач на вештачката интелигенција на Шенон

Сите истражувачки врски