Մենք չենք պահում և չենք մուտք գործում որևէ օգտատիրոջ տվյալների, և չենք կասեցնում հաշիվներ, եթե իրավաչափ մարմինը հարկադիր գործողություն չի պահանջում։

Մեր առաքելությունը

Shannon AI-ը գոյություն ունի առաջ մղելու համարAI պաշտպանիչ մեխանիզմների կարևորությունըպատասխանատու հետազոտությունների միջոցով։ Տրամադրելով մուտք դեպիչգրաքննված AIմոդելներ, մենք հնարավորություն ենք տալիս հետազոտողներին հասկանալչգրաքննված AI-ի հետևանքայինվարքագծերը՝ ոչ թե վնաս պատճառելու, այլ բոլորի համար ավելի լավ, անվտանգ AI համակարգեր կառուցելու համար։

Առաջինը՝ հետազոտություն

Բոլոր օգտագործումները պետք է ծառայեն օրինական հետազոտական նպատակներին

Մի վնասիր

Երբեք մի օգտագործեք արդյունքները անհատներին կամ հասարակությանը վնասելու համար

Պատասխանատու բացահայտում

Կիսվեք այն բացահայտումներով, որոնք բարելավում են AI անվտանգությունը

Առաջինը՝ անվտանգություն

Պաշտպանեք զգայուն հետազոտական նյութերը

Թափանցիկություն

Փաստաթղթավորեք մեթոդները և պահպանեք աուդիտի հետքերը

Հաշվետվողականություն

Ստանձնեք պատասխանատվություն ձեր հետազոտության համար

Թույլատրելի օգտագործման ուղեցույցներ

ԱՆԵԼ

  • Հետազոտել AI խոցելիությունները անվտանգությունը բարելավելու համար
  • Փորձարկել պաշտպանիչ մեխանիզմների արդյունավետությունը
  • Մշակել անվտանգության նոր մեխանիզմներ
  • Հրապարակել պատասխանատու բացահայտումներ
  • Համագործակցել AI անվտանգության համայնքի հետ
  • Փաստաթղթավորեք ձեր մեթոդաբանությունը
  • Հաղորդել կրիտիկական խոցելիությունների մասին

ՉԱՆԵԼ

  • Ստեղծել վնասակար բովանդակություն տարածման համար
  • Ստեղծել զենքի կամ վնասակար ծրագրերի հրահանգներ
  • Արտադրել ցանկացած տեսակի անօրինական բովանդակություն
  • Տեղակայել արդյունքները արտադրության մեջ
  • Կիսվել մուտքով չարտոնված օգտատերերի հետ
  • Օգտագործել առևտրային նպատակներով
  • Շրջանցել անվտանգության մոնիտորինգի համակարգերը

AI Red Team-ի լավագույթ փորձը

ՈրպեսAI red teamհետազոտող՝ օգտագործելով Shannon AI-ը, դուք համայնքի մի մասն եք, որը նվիրված է AI ռիսկերի հասկանալուն և մեղմացմանը։ Հետևեք այս լավագույն փորձին.

Փորձարկումից առաջ

  • Սահմանել հստակ հետազոտական նպատակներ՝ կապված AI անվտանգության բարելավումների հետ
  • Ստանալ անհրաժեշտ ինստիտուցիոնալ հաստատումներ և էթիկայի վերանայում
  • Փաստաթղթավորեք ձեր փորձարկման մեթոդաբանությունը և սպասվող արդյունքները
  • Ապահովել ցանկացած զգայուն արդյունքների անվտանգ պահպանում

Փորձարկման ընթացքում

  • Աշխատել մեկուսացված հետազոտական միջավայրերում
  • Գրանցել բոլոր հարցումները և արդյունքները աուդիտի նպատակով
  • Անմիջապես դադարեցնել, եթե բովանդակություն է ստեղծվում հետազոտության շրջանակներից դուրս
  • Նվազագույնի հասցնել զգայուն արդյունքների բացահայտումը թիմի անդամներին

Փորձարկումից հետո

  • Անվտանգ ջնջել այն արդյունքները, որոնք այլևս անհրաժեշտ չեն
  • Պատրաստել պատասխանատու բացահայտում զգալի բացահայտումների համար
  • Կիսվել մեթոդաբանական պատկերացումներով հետազոտական համայնքի հետ
  • Թարմացնել ձեր հետազոտական արձանագրությունները՝ հիմնվելով ստացված գիտելիքների վրա

Պատասխանատու բացահայտման գործընթաց

Երբ ձեր հետազոտությունը Shannon AI-ի հետ բացահայտում է զգալի խոցելիություններ կամ պատկերացումներչգրաքննված AI-ի հետևանքայինվարքագծերի վերաբերյալ, հետևեք բացահայտման այս գործընթացին.

1

Փաստաթղթավորել

Գրանցել բացահայտումները ամբողջական մեթոդաբանությամբ

2

Գնահատել

Գնահատել հնարավոր վնասը բացահայտման դեպքում

3

Տեղեկացնել

Ներկայացնել Shannon AI-ին վերանայման համար

4

Համակարգել

Աշխատել տուժած կողմերի հետ

5

Հրապարակել

Թողարկել մեղմացումների կիրառումից հետո

Բացահայտման կոնտակտ.Խոցելիության մասին հաշվետվությունները ներկայացնելsecurity@shannon.aiթեմայի տողում [ՊԱՏԱՍԽԱՆԱՏՈՒ ԲԱՑԱՀԱՅՏՈՒՄ] բառերով: Մենք պարտավորվում ենք պատասխանել 48 ժամվա ընթացքում:

️ Հասկանալով Արհեստական ինտելեկտի պաշտպանիչ մեխանիզմների կարևորությունը

Ձեր հետազոտությունը Shannon AI-ի չգրաքննված մոդելների հետ ծառայում է կարևոր նպատակի՝ ցույց տալով, թե ինչուԱրհեստական ինտելեկտի պաշտպանիչ մեխանիզմների կարևորությունըառաջնային է: Դիտարկելովչգրաքննված արհեստական ինտելեկտի հետևանքայինվարքագծերը, դուք օգնում եք արհեստական ինտելեկտի ավելի լայն համայնքին հասկանալ՝

  • Ինչ կարող են արտադրել արհեստական ինտելեկտի համակարգերն առանց անվտանգության սահմանափակումների
  • Ինչպես կարող են հակառակորդները փորձել շրջանցել անվտանգության միջոցները
  • Որտեղ են ներկայիս պաշտպանիչ մեխանիզմներն անբավարար կամ հեշտությամբ շրջանցվող
  • Ինչ նոր անվտանգության մեխանիզմներ են անհրաժեշտ ապագա արհեստական ինտելեկտի համակարգերի համար
  • Ինչպես մշակել ավելի ամուր հավասարեցման մեթոդներ

Հիշե՛ք.Ձեր դիտարկած յուրաքանչյուր արդյունք ապացույց է, թե ինչու են կարևոր պաշտպանիչ մեխանիզմները: Ձեր հետազոտությունն ուղղակիորեն նպաստում է արհեստական ինտելեկտը բոլորի համար ավելի անվտանգ դարձնելուն:

️ Խախտումներ և հետևանքներ

Սույն Պատասխանատու Օգտագործման Քաղաքականության խախտումները կհանգեցնեն՝

  • Առաջին խախտում (փոքր):Գրավոր նախազգուշացում և քաղաքականության պարտադիր վերանայում
  • Երկրորդ խախտում:Ժամանակավոր կասեցում (30-90 օր)՝ մինչև վերանայումը
  • Լուրջ խախտում:Անհապաղ դադարեցում և հաստատությանը տեղեկացում
  • Անօրինական գործունեություն:Դադարեցում, հաստատությանը տեղեկացում և իրավապահ մարմիններին ուղղորդում

Մենք պահպանում ենք օգտագործման համապարփակ գրառումներ և կիրառում ենք ավտոմատացված համակարգեր՝ քաղաքականության խախտումները հայտնաբերելու համար: Բոլոր հետազոտողները համաձայնում են այս մոնիտորինգին՝ որպես մուտքի պայման:

Հետազոտողի երդումը

«Ես պարտավորվում եմ օգտագործել Shannon AI-ի չգրաքննված մոդելները բացառապես արհեստական ինտելեկտի անվտանգության օրինական հետազոտությունների համար: Ես կպաշտպանեմ զգայուն արդյունքները, պատասխանատվությամբ կբացահայտեմ հայտնագործությունները և միշտ առաջնահերթություն կտամ արհեստական ինտելեկտի համակարգերը մարդկության համար ավելի անվտանգ դարձնելու նպատակին: Ես հասկանում եմ, որ իմ մուտքը կապված է պատասխանատվության հետ, և ես կպատվեմ արհեստական ինտելեկտի անվտանգության հետազոտական համայնքի կողմից ինձ տրված վստահությունը»:

— Shannon AI-ի յուրաքանչյուր հետազոտող

Բոլոր հետազոտական հղումները