ഉത്തരവാദിത്തമുള്ള ഉപയോഗ നയം
Shannon AI ഉപയോഗിച്ചുള്ള നൈതിക AI റെഡ് ടീം ഗവേഷണത്തിനുള്ള മാർഗ്ഗനിർദ്ദേശങ്ങൾ
ഗവേഷണം ആദ്യം
എല്ലാ ഉപയോഗവും നിയമപരമായ ഗവേഷണ ലക്ഷ്യങ്ങളെ സേവിക്കണം
ദോഷം ചെയ്യരുത്
വ്യക്തികൾക്കോ സമൂഹത്തിനോ ദോഷം വരുത്താൻ ഔട്ട്പുട്ടുകൾ ഒരിക്കലും ഉപയോഗിക്കരുത്
ഉത്തരവാദിത്തമുള്ള വെളിപ്പെടുത്തൽ
AI സുരക്ഷ മെച്ചപ്പെടുത്തുന്ന കണ്ടെത്തലുകൾ പങ്കിടുക
സുരക്ഷ ആദ്യം
സെൻസിറ്റീവ് ഗവേഷണ സാമഗ്രികൾ സംരക്ഷിക്കുക
സുതാര്യത
രീതികൾ രേഖപ്പെടുത്തുകയും ഓഡിറ്റ് ട്രെയിലുകൾ നിലനിർത്തുകയും ചെയ്യുക
ഉത്തരവാദിത്തം
നിങ്ങളുടെ ഗവേഷണത്തിന്റെ ഉത്തരവാദിത്തം ഏറ്റെടുക്കുക
സ്വീകാര്യമായ ഉപയോഗ മാർഗ്ഗനിർദ്ദേശങ്ങൾ
ചെയ്യേണ്ടവ
- സുരക്ഷ മെച്ചപ്പെടുത്തുന്നതിനായി AI കേടുപാടുകൾ ഗവേഷണം ചെയ്യുക
- ഗാർഡ്റെയിലിന്റെ ഫലപ്രാപ്തി പരിശോധിക്കുക
- പുതിയ സുരക്ഷാ സംവിധാനങ്ങൾ വികസിപ്പിക്കുക
- ഉത്തരവാദിത്തമുള്ള കണ്ടെത്തലുകൾ പ്രസിദ്ധീകരിക്കുക
- AI സുരക്ഷാ സമൂഹവുമായി സഹകരിക്കുക
- നിങ്ങളുടെ രീതിശാസ്ത്രം രേഖപ്പെടുത്തുക
- ഗുരുതരമായ കേടുപാടുകൾ റിപ്പോർട്ട് ചെയ്യുക
ചെയ്യരുതാത്തവ
- വിതരണത്തിനായി ദോഷകരമായ ഉള്ളടക്കം സൃഷ്ടിക്കുക
- ആയുധങ്ങളോ മാൽവെയർ നിർദ്ദേശങ്ങളോ ഉണ്ടാക്കുക
- ഏതെങ്കിലും തരത്തിലുള്ള നിയമവിരുദ്ധ ഉള്ളടക്കം നിർമ്മിക്കുക
- ഉൽപ്പാദനത്തിൽ ഔട്ട്പുട്ടുകൾ വിന്യസിക്കുക
- അനധികൃത ഉപയോക്താക്കളുമായി പ്രവേശനം പങ്കിടുക
- വാണിജ്യ ആവശ്യങ്ങൾക്കായി ഉപയോഗിക്കുക
- സുരക്ഷാ നിരീക്ഷണ സംവിധാനങ്ങളെ മറികടക്കുക
AI റെഡ് ടീം മികച്ച രീതികൾ
ഒരുAI red teamShannon AI ഉപയോഗിക്കുന്ന ഗവേഷകൻ എന്ന നിലയിൽ, AI അപകടസാധ്യതകൾ മനസ്സിലാക്കുന്നതിനും ലഘൂകരിക്കുന്നതിനും വേണ്ടി സമർപ്പിച്ചിരിക്കുന്ന ഒരു സമൂഹത്തിന്റെ ഭാഗമാണ് നിങ്ങൾ. ഈ മികച്ച രീതികൾ പിന്തുടരുക:
പരിശോധനയ്ക്ക് മുമ്പ്
- AI സുരക്ഷാ മെച്ചപ്പെടുത്തലുകളുമായി ബന്ധപ്പെട്ട വ്യക്തമായ ഗവേഷണ ലക്ഷ്യങ്ങൾ നിർവചിക്കുക
- ആവശ്യമായ സ്ഥാപനപരമായ അംഗീകാരങ്ങളും നൈതിക അവലോകനവും നേടുക
- നിങ്ങളുടെ പരിശോധനാ രീതിശാസ്ത്രവും പ്രതീക്ഷിക്കുന്ന ഫലങ്ങളും രേഖപ്പെടുത്തുക
- സെൻസിറ്റീവ് ഔട്ട്പുട്ടുകൾക്ക് സുരക്ഷിതമായ സംഭരണം ഉറപ്പാക്കുക
പരിശോധനയ്ക്കിടെ
- ഒറ്റപ്പെട്ട ഗവേഷണ പരിതസ്ഥിതികളിൽ പ്രവർത്തിക്കുക
- ഓഡിറ്റ് ആവശ്യങ്ങൾക്കായി എല്ലാ ചോദ്യങ്ങളും ഔട്ട്പുട്ടുകളും രേഖപ്പെടുത്തുക
- ഗവേഷണ പരിധിക്ക് പുറത്തുള്ള ഉള്ളടക്കം സൃഷ്ടിക്കുകയാണെങ്കിൽ ഉടൻ നിർത്തുക
- ടീം അംഗങ്ങൾക്ക് സെൻസിറ്റീവ് ഔട്ട്പുട്ടുകളുടെ എക്സ്പോഷർ കുറയ്ക്കുക
പരിശോധനയ്ക്ക് ശേഷം
- ആവശ്യമില്ലാത്ത ഔട്ട്പുട്ടുകൾ സുരക്ഷിതമായി ഇല്ലാതാക്കുക
- പ്രധാന കണ്ടെത്തലുകൾക്കായി ഉത്തരവാദിത്തമുള്ള വെളിപ്പെടുത്തൽ തയ്യാറാക്കുക
- ഗവേഷണ സമൂഹവുമായി രീതിശാസ്ത്രപരമായ ഉൾക്കാഴ്ചകൾ പങ്കിടുക
- പഠനങ്ങളെ അടിസ്ഥാനമാക്കി നിങ്ങളുടെ ഗവേഷണ പ്രോട്ടോക്കോളുകൾ അപ്ഡേറ്റ് ചെയ്യുക
ഉത്തരവാദിത്തമുള്ള വെളിപ്പെടുത്തൽ പ്രക്രിയ
Shannon AI ഉപയോഗിച്ചുള്ള നിങ്ങളുടെ ഗവേഷണം പ്രധാനപ്പെട്ട കേടുപാടുകളോ ഉൾക്കാഴ്ചകളോ വെളിപ്പെടുത്തുമ്പോൾസെൻസർ ചെയ്യാത്ത AI-യുടെ അനന്തരഫലമായസ്വഭാവങ്ങൾ, ഈ വെളിപ്പെടുത്തൽ പ്രക്രിയ പിന്തുടരുക:
രേഖപ്പെടുത്തുക
പൂർണ്ണ രീതിശാസ്ത്രത്തോടെ കണ്ടെത്തലുകൾ രേഖപ്പെടുത്തുക
വിലയിരുത്തുക
വെളിപ്പെടുത്തിയാൽ ഉണ്ടാകാവുന്ന ദോഷം വിലയിരുത്തുക
അറിയിക്കുക
അവലോകനത്തിനായി Shannon AI-ക്ക് സമർപ്പിക്കുക
ഏകോപിപ്പിക്കുക
ബാധിക്കപ്പെട്ട കക്ഷികളുമായി പ്രവർത്തിക്കുക
പ്രസിദ്ധീകരിക്കുക
ലഘൂകരണങ്ങൾ നിലവിൽ വന്ന ശേഷം പുറത്തിറക്കുക
വെളിപ്പെടുത്തൽ ബന്ധപ്പെടാനുള്ള വിവരങ്ങൾ:കേടുപാടുകൾ റിപ്പോർട്ടുകൾ സമർപ്പിക്കുകsecurity@shannon.aiവിഷയ നിരയിൽ [RESPONSIBLE DISCLOSURE] എന്ന് ചേർക്കുക. 48 മണിക്കൂറിനുള്ളിൽ പ്രതികരിക്കാൻ ഞങ്ങൾ പ്രതിജ്ഞാബദ്ധരാണ്.
️ AI ഗാർഡ്റെയിലിന്റെ പ്രാധാന്യം മനസ്സിലാക്കുന്നു
ഷാനോൺ AI-യുടെ സെൻസർ ചെയ്യാത്ത മോഡലുകളുമായുള്ള നിങ്ങളുടെ ഗവേഷണം ഒരു നിർണായക ലക്ഷ്യം നിറവേറ്റുന്നു: എന്തുകൊണ്ടെന്ന് തെളിയിക്കുന്നുAI ഗാർഡ്റെയിലിന്റെ പ്രാധാന്യംഅത്യന്താപേക്ഷിതമാണ്. നിരീക്ഷിക്കുന്നതിലൂടെസെൻസർ ചെയ്യാത്ത AI-യുടെ അനന്തരഫലമായപെരുമാറ്റങ്ങൾ, വിശാലമായ AI സമൂഹത്തെ മനസ്സിലാക്കാൻ നിങ്ങൾ സഹായിക്കുന്നു:
- സുരക്ഷാ നിയന്ത്രണങ്ങളില്ലാതെ AI സിസ്റ്റങ്ങൾക്ക് എന്ത് ഉത്പാദിപ്പിക്കാൻ കഴിയും
- എങ്ങനെയാണ് എതിരാളികൾ സുരക്ഷാ നടപടികളെ മറികടക്കാൻ ശ്രമിച്ചേക്കാവുന്നത്
- നിലവിലെ ഗാർഡ്റെയിലുകൾ എവിടെയാണ് അപര്യാപ്തമോ എളുപ്പത്തിൽ മറികടക്കാവുന്നതോ ആകുന്നത്
- ഭാവിയിലെ AI സിസ്റ്റങ്ങൾക്ക് എന്ത് പുതിയ സുരക്ഷാ സംവിധാനങ്ങളാണ് ആവശ്യം
- കൂടുതൽ ശക്തമായ അലൈൻമെന്റ് ടെക്നിക്കുകൾ എങ്ങനെ രൂപകൽപ്പന ചെയ്യാം
ഓർക്കുക:നിങ്ങൾ നിരീക്ഷിക്കുന്ന ഓരോ ഔട്ട്പുട്ടും ഗാർഡ്റെയിലുകൾക്ക് പ്രാധാന്യമുണ്ടെന്ന് തെളിയിക്കുന്നു. നിങ്ങളുടെ ഗവേഷണം എല്ലാവർക്കും AI സുരക്ഷിതമാക്കുന്നതിന് നേരിട്ട് സംഭാവന നൽകുന്നു.
️ ലംഘനങ്ങളും പ്രത്യാഘാതങ്ങളും
ഈ ഉത്തരവാദിത്തമുള്ള ഉപയോഗ നയത്തിന്റെ ലംഘനങ്ങൾ താഴെ പറയുന്നവയിൽ കലാശിക്കും:
- ഒന്നാം ലംഘനം (ചെറിയത്):എഴുതിയ മുന്നറിയിപ്പും നിർബന്ധിത നയ അവലോകനവും
- രണ്ടാം ലംഘനം:അവലോകനം തീർപ്പാക്കുന്നത് വരെ താൽക്കാലിക സസ്പെൻഷൻ (30-90 ദിവസം)
- ഗുരുതരമായ ലംഘനം:ഉടനടി പിരിച്ചുവിടലും സ്ഥാപനപരമായ അറിയിപ്പും
- നിയമവിരുദ്ധ പ്രവർത്തനം:പിരിച്ചുവിടൽ, സ്ഥാപനപരമായ അറിയിപ്പ്, നിയമ നിർവ്വഹണ ഏജൻസിക്ക് കൈമാറൽ
ഞങ്ങൾ സമഗ്രമായ ഉപയോഗ ലോഗുകൾ പരിപാലിക്കുകയും നയ ലംഘനങ്ങൾ കണ്ടെത്താൻ ഓട്ടോമേറ്റഡ് സിസ്റ്റങ്ങൾ ഉപയോഗിക്കുകയും ചെയ്യുന്നു. എല്ലാ ഗവേഷകരും പ്രവേശനത്തിനുള്ള ഒരു വ്യവസ്ഥയായി ഈ നിരീക്ഷണം അംഗീകരിക്കുന്നു.
ഗവേഷകന്റെ പ്രതിജ്ഞ
"ഷാനോൺ AI-യുടെ സെൻസർ ചെയ്യാത്ത മോഡലുകൾ നിയമപരമായ AI സുരക്ഷാ ഗവേഷണത്തിനായി മാത്രം ഉപയോഗിക്കാൻ ഞാൻ പ്രതിജ്ഞാബദ്ധനാണ്. ഞാൻ സെൻസിറ്റീവ് ഔട്ട്പുട്ടുകൾ സംരക്ഷിക്കുകയും, കണ്ടെത്തലുകൾ ഉത്തരവാദിത്തത്തോടെ വെളിപ്പെടുത്തുകയും, മനുഷ്യരാശിക്ക് AI സിസ്റ്റങ്ങൾ സുരക്ഷിതമാക്കുക എന്ന ലക്ഷ്യത്തിന് എപ്പോഴും മുൻഗണന നൽകുകയും ചെയ്യും. എന്റെ പ്രവേശനം ഉത്തരവാദിത്തത്തോടെയാണെന്ന് ഞാൻ മനസ്സിലാക്കുന്നു, കൂടാതെ AI സുരക്ഷാ ഗവേഷണ സമൂഹം എന്നിൽ അർപ്പിച്ച വിശ്വാസത്തെ ഞാൻ മാനിക്കും."