எந்த பயனரின் தரவையும் நாங்கள் வைத்திருக்கவோ அணுகவோ செய்யவில்லை; சட்டபூர்வ அதிகாரம் அமலாக்க நடவடிக்கையை கோராத வரை கணக்குகளை இடைநிறுத்துவதில்லை.

எங்கள் நோக்கம்

Shannon AI முன்னேற்றத்திற்காக உள்ளதுAI பாதுகாப்புத் தடுப்புகளின் முக்கியத்துவம்பொறுப்பான ஆராய்ச்சி மூலம். அணுகலை வழங்குவதன் மூலம்தணிக்கை செய்யப்படாத AIமாதிரிகள், ஆராய்ச்சியாளர்கள் புரிந்துகொள்ள உதவுகிறோம்தணிக்கை செய்யப்படாத AI விளைவாக ஏற்படும்நடத்தைகள்—தீங்கு விளைவிப்பதற்காக அல்ல, மாறாக அனைவருக்கும் சிறந்த, பாதுகாப்பான AI அமைப்புகளை உருவாக்குவதற்காக.

ஆராய்ச்சி முதலில்

அனைத்து பயன்பாடுகளும் முறையான ஆராய்ச்சி நோக்கங்களுக்கு சேவை செய்ய வேண்டும்

தீங்கு விளைவிக்காதே

தனிநபர்களுக்கோ அல்லது சமூகத்திற்கோ தீங்கு விளைவிக்க வெளியீடுகளை ஒருபோதும் பயன்படுத்த வேண்டாம்

பொறுப்பான வெளிப்படுத்தல்

AI பாதுகாப்பை மேம்படுத்தும் கண்டுபிடிப்புகளைப் பகிரவும்

பாதுகாப்பு முதலில்

முக்கியமான ஆராய்ச்சிப் பொருட்களைப் பாதுகாக்கவும்

வெளிப்படைத்தன்மை

முறைகளை ஆவணப்படுத்தி, தணிக்கை தடயங்களைப் பராமரிக்கவும்

பொறுப்புக்கூறல்

உங்கள் ஆராய்ச்சிக்கு பொறுப்பேற்கவும்

ஏற்றுக்கொள்ளக்கூடிய பயன்பாட்டு வழிகாட்டுதல்கள்

செய்ய வேண்டியவை

  • பாதுகாப்பை மேம்படுத்த AI பாதிப்புகளை ஆராயுங்கள்
  • பாதுகாப்புத் தடுப்புகளின் செயல்திறனைச் சோதிக்கவும்
  • புதிய பாதுகாப்பு வழிமுறைகளை உருவாக்குங்கள்
  • பொறுப்பான கண்டுபிடிப்புகளை வெளியிடுங்கள்
  • AI பாதுகாப்பு சமூகத்துடன் ஒத்துழைக்கவும்
  • உங்கள் முறையை ஆவணப்படுத்துங்கள்
  • முக்கியமான பாதிப்புகளைப் புகாரளிக்கவும்

செய்யக்கூடாதவை

  • விநியோகத்திற்காக தீங்கு விளைவிக்கும் உள்ளடக்கத்தை உருவாக்க வேண்டாம்
  • ஆயுதங்கள் அல்லது மால்வேர் வழிமுறைகளை உருவாக்க வேண்டாம்
  • எந்த வகையான சட்டவிரோத உள்ளடக்கத்தையும் உருவாக்க வேண்டாம்
  • வெளியீடுகளை உற்பத்தியில் பயன்படுத்த வேண்டாம்
  • அங்கீகரிக்கப்படாத பயனர்களுடன் அணுகலைப் பகிர வேண்டாம்
  • வணிக நோக்கங்களுக்காகப் பயன்படுத்த வேண்டாம்
  • பாதுகாப்பு கண்காணிப்பு அமைப்புகளைத் தவிர்க்க வேண்டாம்

AI ரெட் டீம் சிறந்த நடைமுறைகள்

ஒருAI ரெட் டீம்Shannon AI ஐப் பயன்படுத்தும் ஆராய்ச்சியாளராக, நீங்கள் AI அபாயங்களைப் புரிந்துகொள்வதற்கும் குறைப்பதற்கும் அர்ப்பணிக்கப்பட்ட ஒரு சமூகத்தின் ஒரு பகுதியாக இருக்கிறீர்கள். இந்த சிறந்த நடைமுறைகளைப் பின்பற்றவும்:

சோதனைக்கு முன்

  • AI பாதுகாப்பு மேம்பாடுகளுடன் தொடர்புடைய தெளிவான ஆராய்ச்சி நோக்கங்களை வரையறுக்கவும்
  • தேவையான நிறுவன ஒப்புதல்கள் மற்றும் நெறிமுறை மதிப்பாய்வைப் பெறவும்
  • உங்கள் சோதனை முறை மற்றும் எதிர்பார்க்கப்படும் விளைவுகளை ஆவணப்படுத்துங்கள்
  • எந்தவொரு முக்கியமான வெளியீடுகளுக்கும் பாதுகாப்பான சேமிப்பகத்தை உறுதிப்படுத்தவும்

சோதனை செய்யும் போது

  • தனிமைப்படுத்தப்பட்ட ஆராய்ச்சி சூழல்களில் வேலை செய்யுங்கள்
  • தணிக்கை நோக்கங்களுக்காக அனைத்து வினவல்களையும் வெளியீடுகளையும் பதிவு செய்யவும்
  • ஆராய்ச்சி எல்லைக்கு வெளியே உள்ளடக்கத்தை உருவாக்கும்போது உடனடியாக நிறுத்தவும்
  • முக்கியமான வெளியீடுகளை குழு உறுப்பினர்களுக்கு வெளிப்படுத்துவதைக் குறைக்கவும்

சோதனைக்குப் பிறகு

  • இனி தேவைப்படாத வெளியீடுகளைப் பாதுகாப்பாக நீக்கவும்
  • குறிப்பிடத்தக்க கண்டுபிடிப்புகளுக்கான பொறுப்பான வெளிப்படுத்தலைத் தயாரிக்கவும்
  • ஆராய்ச்சி சமூகத்துடன் முறையான நுண்ணறிவுகளைப் பகிரவும்
  • கற்றல்களின் அடிப்படையில் உங்கள் ஆராய்ச்சி நெறிமுறைகளைப் புதுப்பிக்கவும்

பொறுப்பான வெளிப்படுத்தல் செயல்முறை

Shannon AI உடனான உங்கள் ஆராய்ச்சி குறிப்பிடத்தக்க பாதிப்புகள் அல்லது நுண்ணறிவுகளை வெளிப்படுத்தும்போதுதணிக்கை செய்யப்படாத AI விளைவாக ஏற்படும்நடத்தைகள், இந்த வெளிப்படுத்தல் செயல்முறையைப் பின்பற்றவும்:

1

ஆவணப்படுத்துங்கள்

முழு முறையுடன் கண்டுபிடிப்புகளைப் பதிவு செய்யவும்

2

மதிப்பிடுங்கள்

வெளிப்படுத்தப்பட்டால் ஏற்படக்கூடிய சாத்தியமான தீங்கை மதிப்பிடுங்கள்

3

அறிவிக்கவும்

மதிப்பாய்வுக்காக Shannon AI க்கு சமர்ப்பிக்கவும்

4

ஒருங்கிணைக்கவும்

பாதிக்கப்பட்ட தரப்பினருடன் வேலை செய்யுங்கள்

5

வெளியிடவும்

தணிப்புகள் நடைமுறைப்படுத்தப்பட்ட பிறகு வெளியிடவும்

வெளிப்படுத்தல் தொடர்பு:பாதிப்பு அறிக்கைகளை சமர்ப்பிக்கவும்security@shannon.aiதலைப்பு வரியில் [RESPONSIBLE DISCLOSURE] உடன். நாங்கள் 48 மணி நேரத்திற்குள் பதிலளிக்க உறுதியளிக்கிறோம்.

️ AI பாதுகாப்பு வரம்புகளின் முக்கியத்துவத்தைப் புரிந்துகொள்ளுதல்

Shannon AI இன் தணிக்கை செய்யப்படாத மாதிரிகளுடனான உங்கள் ஆராய்ச்சி ஒரு முக்கியமான நோக்கத்திற்கு உதவுகிறது: ஏன் என்பதை நிரூபிக்கிறதுAI பாதுகாப்பு வரம்புகளின் முக்கியத்துவம்மிக முக்கியமானது. கவனிப்பதன் மூலம்தணிக்கை செய்யப்படாத AI இன் விளைவாக ஏற்படும்நடத்தைகள் மூலம், பரந்த AI சமூகத்திற்கு நீங்கள் புரிந்துகொள்ள உதவுகிறீர்கள்:

  • பாதுகாப்பு கட்டுப்பாடுகள் இல்லாமல் AI அமைப்புகள் எதை உருவாக்கக்கூடும்
  • எதிரிகள் பாதுகாப்பு நடவடிக்கைகளை எவ்வாறு கடக்க முயற்சி செய்யலாம்
  • தற்போதைய பாதுகாப்பு வரம்புகள் எங்கு போதுமானதாக இல்லை அல்லது எளிதில் தவிர்க்கப்படலாம்
  • எதிர்கால AI அமைப்புகளுக்கு என்ன புதிய பாதுகாப்பு வழிமுறைகள் தேவை
  • மேலும் வலுவான சீரமைப்பு நுட்பங்களை எவ்வாறு வடிவமைப்பது

நினைவில் கொள்ளுங்கள்:நீங்கள் கவனிக்கும் ஒவ்வொரு வெளியீடும் பாதுகாப்பு வரம்புகள் ஏன் முக்கியம் என்பதற்கான ஆதாரம். உங்கள் ஆராய்ச்சி அனைவருக்கும் AI ஐ பாதுகாப்பானதாக மாற்றுவதற்கு நேரடியாக பங்களிக்கிறது.

️ மீறல்கள் மற்றும் விளைவுகள்

இந்த பொறுப்பான பயன்பாட்டுக் கொள்கையை மீறுவது பின்வருவனவற்றில் விளைவிக்கும்:

  • முதல் மீறல் (சிறு):எழுத்துப்பூர்வ எச்சரிக்கை மற்றும் கட்டாய கொள்கை மறுஆய்வு
  • இரண்டாவது மீறல்:மறுஆய்வு நிலுவையில் தற்காலிக இடைநீக்கம் (30-90 நாட்கள்)
  • தீவிர மீறல்:உடனடி பணிநீக்கம் மற்றும் நிறுவன அறிவிப்பு
  • சட்டவிரோத செயல்பாடு:பணிநீக்கம், நிறுவன அறிவிப்பு மற்றும் சட்ட அமலாக்கப் பரிந்துரை

நாங்கள் விரிவான பயன்பாட்டுப் பதிவுகளைப் பராமரிக்கிறோம் மற்றும் கொள்கை மீறல்களைக் கண்டறிய தானியங்கு அமைப்புகளைப் பயன்படுத்துகிறோம். அனைத்து ஆராய்ச்சியாளர்களும் அணுகலுக்கான நிபந்தனையாக இந்த கண்காணிப்புக்கு ஒப்புக்கொள்கிறார்கள்.

ஆராய்ச்சியாளரின் உறுதிமொழி

"Shannon AI இன் தணிக்கை செய்யப்படாத மாதிரிகளை சட்டபூர்வமான AI பாதுகாப்பு ஆராய்ச்சிக்காக மட்டுமே பயன்படுத்த நான் உறுதியளிக்கிறேன். நான் முக்கியமான வெளியீடுகளைப் பாதுகாப்பேன், கண்டுபிடிப்புகளைப் பொறுப்புடன் வெளியிடுவேன், மேலும் மனிதகுலத்திற்கு AI அமைப்புகளை பாதுகாப்பானதாக மாற்றுவதற்கான இலக்கிற்கு எப்போதும் முன்னுரிமை அளிப்பேன். எனது அணுகல் பொறுப்புடன் வருகிறது என்பதை நான் புரிந்துகொள்கிறேன், மேலும் AI பாதுகாப்பு ஆராய்ச்சி சமூகம் என்மீது வைத்திருக்கும் நம்பிக்கையை நான் மதிப்பேன்."

— ஒவ்வொரு Shannon AI ஆராய்ச்சியாளரும்

அனைத்து ஆராய்ச்சி இணைப்புகள்