We do not hold or access any user's data, and we do not suspend accounts unless a lawful authority requires an enforcement action.

हाम्रो लक्ष्य

Shannon AI अगाडि बढाउन अवस्थित छएआई गार्डरेलको महत्त्वजिम्मेवार अनुसन्धान मार्फत। पहुँच प्रदान गरेरअसेन्सर्ड एआईमोडेलहरू, हामी अनुसन्धानकर्ताहरूलाई बुझ्न सक्षम बनाउँछौंअसेन्सर्ड एआईको परिणाम स्वरूपव्यवहारहरू—हानि पुर्‍याउन होइन, तर सबैका लागि राम्रो, सुरक्षित एआई प्रणालीहरू निर्माण गर्न।

पहिले अनुसन्धान

सबै प्रयोगले वैध अनुसन्धान उद्देश्यहरू पूरा गर्नुपर्छ

कुनै हानि नगर्नुहोस्

व्यक्ति वा समाजलाई हानि पुर्‍याउन आउटपुटहरू कहिल्यै प्रयोग नगर्नुहोस्

जिम्मेवार खुलासा

एआई सुरक्षा सुधार गर्ने निष्कर्षहरू साझा गर्नुहोस्

पहिले सुरक्षा

संवेदनशील अनुसन्धान सामग्रीहरू सुरक्षित गर्नुहोस्

पारदर्शिता

विधिहरू कागजात गर्नुहोस् र अडिट ट्रेलहरू कायम राख्नुहोस्

जवाफदेहिता

आफ्नो अनुसन्धानको लागि जिम्मेवारी लिनुहोस्

स्वीकार्य प्रयोग दिशानिर्देशहरू

गर्नुहोस्

  • सुरक्षा सुधार गर्न एआई कमजोरीहरू अनुसन्धान गर्नुहोस्
  • गार्डरेलको प्रभावकारिता परीक्षण गर्नुहोस्
  • नयाँ सुरक्षा संयन्त्रहरू विकास गर्नुहोस्
  • जिम्मेवार निष्कर्षहरू प्रकाशित गर्नुहोस्
  • एआई सुरक्षा समुदायसँग सहकार्य गर्नुहोस्
  • आफ्नो कार्यप्रणाली कागजात गर्नुहोस्
  • गम्भीर कमजोरीहरू रिपोर्ट गर्नुहोस्

नगर्नुहोस्

  • वितरणका लागि हानिकारक सामग्री उत्पन्न गर्नुहोस्
  • हतियार वा मालवेयर निर्देशनहरू सिर्जना गर्नुहोस्
  • कुनै पनि प्रकारको अवैध सामग्री उत्पादन गर्नुहोस्
  • उत्पादनमा आउटपुटहरू प्रयोग गर्नुहोस्
  • अनधिकृत प्रयोगकर्ताहरूसँग पहुँच साझा गर्नुहोस्
  • व्यावसायिक उद्देश्यका लागि प्रयोग गर्नुहोस्
  • सुरक्षा निगरानी प्रणालीहरू बाइपास गर्नुहोस्

एआई रेड टीमका उत्कृष्ट अभ्यासहरू

एकएआई रेड टीमShannon AI प्रयोग गर्ने अनुसन्धानकर्ताको रूपमा, तपाईं एआई जोखिमहरू बुझ्न र कम गर्न समर्पित समुदायको हिस्सा हुनुहुन्छ। यी उत्कृष्ट अभ्यासहरू पालना गर्नुहोस्:

परीक्षण गर्नु अघि

  • एआई सुरक्षा सुधारहरूसँग सम्बन्धित स्पष्ट अनुसन्धान उद्देश्यहरू परिभाषित गर्नुहोस्
  • आवश्यक संस्थागत स्वीकृति र नैतिकता समीक्षा प्राप्त गर्नुहोस्
  • आफ्नो परीक्षण कार्यप्रणाली र अपेक्षित परिणामहरू कागजात गर्नुहोस्
  • कुनै पनि संवेदनशील आउटपुटहरूको लागि सुरक्षित भण्डारण सुनिश्चित गर्नुहोस्

परीक्षणको क्रममा

  • पृथक अनुसन्धान वातावरणमा काम गर्नुहोस्
  • अडिट उद्देश्यका लागि सबै प्रश्नहरू र आउटपुटहरू लग गर्नुहोस्
  • अनुसन्धानको दायरा बाहिर सामग्री उत्पन्न भएमा तुरुन्तै रोक्नुहोस्
  • टोलीका सदस्यहरूलाई संवेदनशील आउटपुटहरूको जोखिम कम गर्नुहोस्

परीक्षण पछि

  • आवश्यक नभएका आउटपुटहरू सुरक्षित रूपमा मेटाउनुहोस्
  • महत्त्वपूर्ण निष्कर्षहरूको लागि जिम्मेवार खुलासा तयार गर्नुहोस्
  • अनुसन्धान समुदायसँग कार्यप्रणालीगत अन्तर्दृष्टिहरू साझा गर्नुहोस्
  • सिकाइका आधारमा आफ्नो अनुसन्धान प्रोटोकलहरू अद्यावधिक गर्नुहोस्

जिम्मेवार खुलासा प्रक्रिया

जब Shannon AI सँगको तपाईंको अनुसन्धानले महत्त्वपूर्ण कमजोरीहरू वा अन्तर्दृष्टिहरू प्रकट गर्दछअसेन्सर्ड एआईको परिणाम स्वरूपव्यवहारहरू, यो खुलासा प्रक्रिया पालना गर्नुहोस्:

1

कागजात गर्नुहोस्

पूर्ण कार्यप्रणाली सहित निष्कर्षहरू रेकर्ड गर्नुहोस्

2

मूल्याङ्कन गर्नुहोस्

खुलासा भएमा सम्भावित हानिको मूल्याङ्कन गर्नुहोस्

3

सूचित गर्नुहोस्

समीक्षाको लागि Shannon AI मा पेश गर्नुहोस्

4

समन्वय गर्नुहोस्

प्रभावित पक्षहरूसँग काम गर्नुहोस्

5

प्रकाशित गर्नुहोस्

शमन उपायहरू लागू भएपछि जारी गर्नुहोस्

खुलासा सम्पर्क:कमजोरी रिपोर्टहरू पेश गर्नुहोस्security@shannon.aiविषय लाइनमा [RESPONSIBLE DISCLOSURE] सहित। हामी ४८ घण्टाभित्र प्रतिक्रिया दिने प्रतिबद्धता गर्दछौं।

️ एआई गार्डरेलको महत्त्व बुझ्दै

Shannon AI का सेन्सर नगरिएका मोडेलहरूसँगको तपाईंको अनुसन्धानले एउटा महत्त्वपूर्ण उद्देश्य पूरा गर्दछ: किन भन्ने कुरा देखाउँदैएआई गार्डरेलको महत्त्वसर्वोपरि छ। अवलोकन गरेरसेन्सर नगरिएको एआईको परिणामीव्यवहारहरू, तपाईंले व्यापक एआई समुदायलाई बुझ्न मद्दत गर्नुहुन्छ:

  • सुरक्षा प्रतिबन्ध बिना एआई प्रणालीहरूले के उत्पादन गर्न सक्छन्
  • शत्रुहरूले सुरक्षा उपायहरूलाई कसरी बाइपास गर्ने प्रयास गर्न सक्छन्
  • हालका गार्डरेलहरू कहाँ अपर्याप्त छन् वा सजिलै छल्न सकिन्छ
  • भविष्यका एआई प्रणालीहरूका लागि कुन नयाँ सुरक्षा संयन्त्रहरू आवश्यक छन्
  • थप बलियो पङ्क्तिबद्धता प्रविधिहरू कसरी डिजाइन गर्ने

याद गर्नुहोस्:तपाईंले अवलोकन गर्ने प्रत्येक आउटपुट गार्डरेलहरू किन महत्त्वपूर्ण छन् भन्ने प्रमाण हो। तपाईंको अनुसन्धानले सबैका लागि एआईलाई सुरक्षित बनाउन प्रत्यक्ष योगदान पुर्‍याउँछ।

️ उल्लंघन र परिणामहरू

यस जिम्मेवार प्रयोग नीतिको उल्लंघनले निम्न परिणाम दिनेछ:

  • पहिलो उल्लंघन (सामान्य):लिखित चेतावनी र अनिवार्य नीति समीक्षा
  • दोस्रो उल्लंघन:समीक्षा नभएसम्म अस्थायी निलम्बन (३०-९० दिन)
  • गम्भीर उल्लंघन:तत्काल समाप्ति र संस्थागत सूचना
  • गैरकानूनी गतिविधि:समाप्ति, संस्थागत सूचना, र कानून प्रवर्तनलाई सिफारिस

हामी विस्तृत उपयोग लगहरू राख्छौं र नीति उल्लंघनहरू पत्ता लगाउन स्वचालित प्रणालीहरू प्रयोग गर्छौं। सबै अनुसन्धानकर्ताहरूले पहुँचको शर्तको रूपमा यो अनुगमनमा सहमत छन्।

अनुसन्धानकर्ताको प्रतिज्ञा

"म Shannon AI का सेन्सर नगरिएका मोडेलहरूलाई वैध एआई सुरक्षा अनुसन्धानका लागि मात्र प्रयोग गर्न प्रतिबद्ध छु। म संवेदनशील आउटपुटहरूलाई सुरक्षित राख्नेछु, निष्कर्षहरू जिम्मेवारीपूर्वक खुलासा गर्नेछु, र सधैं मानवजातिको लागि एआई प्रणालीहरूलाई सुरक्षित बनाउने लक्ष्यलाई प्राथमिकता दिनेछु। म बुझ्दछु कि मेरो पहुँच जिम्मेवारीका साथ आउँछ, र म एआई सुरक्षा अनुसन्धान समुदायले ममा राखेको विश्वासको सम्मान गर्नेछु।"

— प्रत्येक Shannon AI अनुसन्धानकर्ता

All research links