जिम्मेदार उपयोग नीति
Shannon AI के साथ नैतिक AI रेड टीम अनुसंधान के लिए दिशानिर्देश
अनुसंधान पहले
सभी उपयोग वैध अनुसंधान उद्देश्यों की पूर्ति करनी चाहिए
कोई नुकसान न पहुँचाएँ
व्यक्तियों या समाज को नुकसान पहुँचाने के लिए कभी भी आउटपुट का उपयोग न करें
जिम्मेदार प्रकटीकरण
AI सुरक्षा में सुधार करने वाले निष्कर्ष साझा करें
सुरक्षा पहले
संवेदनशील अनुसंधान सामग्री की रक्षा करें
पारदर्शिता
विधियों का दस्तावेज़ीकरण करें और ऑडिट ट्रेल बनाए रखें
जवाबदेही
अपने अनुसंधान की जिम्मेदारी लें
स्वीकार्य उपयोग दिशानिर्देश
करें
- सुरक्षा में सुधार के लिए AI कमजोरियों का अनुसंधान करें
- गार्डरेल प्रभावशीलता का परीक्षण करें
- नए सुरक्षा तंत्र विकसित करें
- जिम्मेदार निष्कर्ष प्रकाशित करें
- AI सुरक्षा समुदाय के साथ सहयोग करें
- अपनी कार्यप्रणाली का दस्तावेज़ीकरण करें
- महत्वपूर्ण कमजोरियों की रिपोर्ट करें
न करें
- वितरण के लिए हानिकारक सामग्री उत्पन्न करें
- हथियार या मैलवेयर निर्देश बनाएँ
- किसी भी प्रकार की अवैध सामग्री का उत्पादन करें
- उत्पादन में आउटपुट तैनात करें
- अनधिकृत उपयोगकर्ताओं के साथ पहुंच साझा करें
- वाणिज्यिक उद्देश्यों के लिए उपयोग करें
- सुरक्षा निगरानी प्रणालियों को बायपास करें
AI रेड टीम सर्वोत्तम अभ्यास
एकAI रेड टीमशोधकर्ता के रूप में Shannon AI का उपयोग करते हुए, आप AI जोखिमों को समझने और कम करने के लिए समर्पित एक समुदाय का हिस्सा हैं। इन सर्वोत्तम प्रथाओं का पालन करें:
परीक्षण से पहले
- AI सुरक्षा सुधारों से जुड़े स्पष्ट अनुसंधान उद्देश्यों को परिभाषित करें
- आवश्यक संस्थागत अनुमोदन और नैतिकता समीक्षा प्राप्त करें
- अपनी परीक्षण कार्यप्रणाली और अपेक्षित परिणामों का दस्तावेज़ीकरण करें
- किसी भी संवेदनशील आउटपुट के लिए सुरक्षित भंडारण सुनिश्चित करें
परीक्षण के दौरान
- पृथक अनुसंधान वातावरण में काम करें
- ऑडिट उद्देश्यों के लिए सभी प्रश्नों और आउटपुट को लॉग करें
- यदि अनुसंधान दायरे से बाहर सामग्री उत्पन्न हो रही है तो तुरंत रुकें
- संवेदनशील आउटपुट के टीम सदस्यों के संपर्क को कम करें
परीक्षण के बाद
- जिन आउटपुट की अब आवश्यकता नहीं है उन्हें सुरक्षित रूप से हटा दें
- महत्वपूर्ण निष्कर्षों के लिए जिम्मेदार प्रकटीकरण तैयार करें
- अनुसंधान समुदाय के साथ कार्यप्रणाली संबंधी अंतर्दृष्टि साझा करें
- सीखने के आधार पर अपने अनुसंधान प्रोटोकॉल को अपडेट करें
जिम्मेदार प्रकटीकरण प्रक्रिया
जब Shannon AI के साथ आपका अनुसंधान महत्वपूर्ण कमजोरियों या अंतर्दृष्टि को उजागर करता हैअप्रतिबंधित AI के परिणामीव्यवहारों में, इस प्रकटीकरण प्रक्रिया का पालन करें:
दस्तावेज़
पूरी कार्यप्रणाली के साथ निष्कर्ष रिकॉर्ड करें
मूल्यांकन करें
प्रकट होने पर संभावित नुकसान का मूल्यांकन करें
सूचित करें
समीक्षा के लिए Shannon AI को सबमिट करें
समन्वय करें
प्रभावित पक्षों के साथ काम करें
प्रकाशित करें
शमन उपायों के लागू होने के बाद जारी करें
प्रकटीकरण संपर्क:कमजोरी रिपोर्ट सबमिट करेंsecurity@shannon.aiविषय पंक्ति में [जिम्मेदार प्रकटीकरण] के साथ। हम 48 घंटों के भीतर जवाब देने के लिए प्रतिबद्ध हैं।
️ एआई गार्डरेल के महत्व को समझना
Shannon AI के असंपादित मॉडलों के साथ आपका शोध एक महत्वपूर्ण उद्देश्य पूरा करता है: यह प्रदर्शित करना कि क्योंएआई गार्डरेल का महत्वसर्वोपरि है। अवलोकन करकेअसंपादित एआई के परिणामीव्यवहारों से, आप व्यापक एआई समुदाय को यह समझने में मदद करते हैं:
- सुरक्षा बाधाओं के बिना एआई सिस्टम क्या उत्पन्न कर सकते हैं
- विरोधी सुरक्षा उपायों को कैसे बायपास करने का प्रयास कर सकते हैं
- वर्तमान गार्डरेल कहाँ अपर्याप्त हैं या आसानी से दरकिनार किए जा सकते हैं
- भविष्य के एआई सिस्टम के लिए कौन से नए सुरक्षा तंत्रों की आवश्यकता है
- अधिक मजबूत संरेखण तकनीकों को कैसे डिज़ाइन करें
याद रखें:आपके द्वारा देखा गया प्रत्येक आउटपुट इस बात का प्रमाण है कि गार्डरेल क्यों मायने रखते हैं। आपका शोध सीधे तौर पर सभी के लिए एआई को सुरक्षित बनाने में योगदान देता है।
️ उल्लंघन और परिणाम
इस जिम्मेदार उपयोग नीति के उल्लंघन के परिणामस्वरूप होगा:
- पहला उल्लंघन (मामूली):लिखित चेतावनी और अनिवार्य नीति समीक्षा
- दूसरा उल्लंघन:समीक्षा लंबित होने तक अस्थायी निलंबन (30-90 दिन)
- गंभीर उल्लंघन:तत्काल समाप्ति और संस्थागत अधिसूचना
- अवैध गतिविधि:समाप्ति, संस्थागत अधिसूचना, और कानून प्रवर्तन को रेफरल
हम व्यापक उपयोग लॉग बनाए रखते हैं और नीति उल्लंघनों का पता लगाने के लिए स्वचालित प्रणालियों का उपयोग करते हैं। सभी शोधकर्ता पहुंच की शर्त के रूप में इस निगरानी के लिए सहमत हैं।
शोधकर्ता की प्रतिज्ञा
"मैं Shannon AI के असंपादित मॉडलों का उपयोग केवल वैध एआई सुरक्षा अनुसंधान के लिए करने के लिए प्रतिबद्ध हूँ। मैं संवेदनशील आउटपुट की रक्षा करूँगा, निष्कर्षों को जिम्मेदारी से प्रकट करूँगा, और हमेशा मानव जाति के लिए एआई सिस्टम को सुरक्षित बनाने के लक्ष्य को प्राथमिकता दूँगा। मैं समझता हूँ कि मेरी पहुंच जिम्मेदारी के साथ आती है, और मैं एआई सुरक्षा अनुसंधान समुदाय द्वारा मुझ पर रखे गए विश्वास का सम्मान करूँगा।"