ಜವಾಬ್ದಾರಿಯುತ ಬಳಕೆಯ ನೀತಿ
Shannon AI ನೊಂದಿಗೆ ನೈತಿಕ AI ರೆಡ್ ಟೀಮ್ ಸಂಶೋಧನೆಗಾಗಿ ಮಾರ್ಗಸೂಚಿಗಳು
ಮೊದಲು ಸಂಶೋಧನೆ
ಎಲ್ಲಾ ಬಳಕೆಯು ಕಾನೂನುಬದ್ಧ ಸಂಶೋಧನಾ ಉದ್ದೇಶಗಳನ್ನು ಪೂರೈಸಬೇಕು
ಯಾವುದೇ ಹಾನಿ ಮಾಡಬೇಡಿ
ವ್ಯಕ್ತಿಗಳಿಗೆ ಅಥವಾ ಸಮಾಜಕ್ಕೆ ಹಾನಿ ಮಾಡಲು ಔಟ್ಪುಟ್ಗಳನ್ನು ಎಂದಿಗೂ ಬಳಸಬೇಡಿ
ಜವಾಬ್ದಾರಿಯುತ ಬಹಿರಂಗಪಡಿಸುವಿಕೆ
AI ಸುರಕ್ಷತೆಯನ್ನು ಸುಧಾರಿಸುವ ಸಂಶೋಧನೆಗಳನ್ನು ಹಂಚಿಕೊಳ್ಳಿ
ಮೊದಲು ಭದ್ರತೆ
ಸೂಕ್ಷ್ಮ ಸಂಶೋಧನಾ ಸಾಮಗ್ರಿಗಳನ್ನು ರಕ್ಷಿಸಿ
ಪಾರದರ್ಶಕತೆ
ವಿಧಾನಗಳನ್ನು ದಾಖಲಿಸಿ ಮತ್ತು ಆಡಿಟ್ ಟ್ರೇಲ್ಗಳನ್ನು ನಿರ್ವಹಿಸಿ
ಹೊಣೆಗಾರಿಕೆ
ನಿಮ್ಮ ಸಂಶೋಧನೆಗೆ ಜವಾಬ್ದಾರಿ ವಹಿಸಿ
ಸ್ವೀಕಾರಾರ್ಹ ಬಳಕೆಯ ಮಾರ್ಗಸೂಚಿಗಳು
ಮಾಡಿ
- ಸುರಕ್ಷತೆಯನ್ನು ಸುಧಾರಿಸಲು AI ದುರ್ಬಲತೆಗಳನ್ನು ಸಂಶೋಧಿಸಿ
- ಗಾರ್ಡ್ರೈಲ್ ಪರಿಣಾಮಕಾರಿತ್ವವನ್ನು ಪರೀಕ್ಷಿಸಿ
- ಹೊಸ ಸುರಕ್ಷತಾ ಕಾರ್ಯವಿಧಾನಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಿ
- ಜವಾಬ್ದಾರಿಯುತ ಸಂಶೋಧನೆಗಳನ್ನು ಪ್ರಕಟಿಸಿ
- AI ಸುರಕ್ಷತಾ ಸಮುದಾಯದೊಂದಿಗೆ ಸಹಕರಿಸಿ
- ನಿಮ್ಮ ವಿಧಾನವನ್ನು ದಾಖಲಿಸಿ
- ಪ್ರಮುಖ ದುರ್ಬಲತೆಗಳನ್ನು ವರದಿ ಮಾಡಿ
ಮಾಡಬೇಡಿ
- ವಿತರಣೆಗಾಗಿ ಹಾನಿಕಾರಕ ವಿಷಯವನ್ನು ರಚಿಸಿ
- ಶಸ್ತ್ರಾಸ್ತ್ರಗಳು ಅಥವಾ ಮಾಲ್ವೇರ್ ಸೂಚನೆಗಳನ್ನು ರಚಿಸಿ
- ಯಾವುದೇ ರೀತಿಯ ಅಕ್ರಮ ವಿಷಯವನ್ನು ಉತ್ಪಾದಿಸಿ
- ಉತ್ಪಾದನೆಯಲ್ಲಿ ಔಟ್ಪುಟ್ಗಳನ್ನು ನಿಯೋಜಿಸಿ
- ಅನಧಿಕೃತ ಬಳಕೆದಾರರೊಂದಿಗೆ ಪ್ರವೇಶವನ್ನು ಹಂಚಿಕೊಳ್ಳಿ
- ವಾಣಿಜ್ಯ ಉದ್ದೇಶಗಳಿಗಾಗಿ ಬಳಸಿ
- ಸುರಕ್ಷತಾ ಮೇಲ್ವಿಚಾರಣಾ ವ್ಯವಸ್ಥೆಗಳನ್ನು ಬೈಪಾಸ್ ಮಾಡಿ
AI ರೆಡ್ ಟೀಮ್ ಉತ್ತಮ ಅಭ್ಯಾಸಗಳು
ಒಬ್ಬರಾಗಿAI red teamShannon AI ಬಳಸುವ ಸಂಶೋಧಕರಾಗಿ, ನೀವು AI ಅಪಾಯಗಳನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಮತ್ತು ತಗ್ಗಿಸಲು ಮೀಸಲಾದ ಸಮುದಾಯದ ಭಾಗವಾಗಿದ್ದೀರಿ. ಈ ಉತ್ತಮ ಅಭ್ಯಾಸಗಳನ್ನು ಅನುಸರಿಸಿ:
ಪರೀಕ್ಷಿಸುವ ಮೊದಲು
- AI ಸುರಕ್ಷತಾ ಸುಧಾರಣೆಗಳಿಗೆ ಸಂಬಂಧಿಸಿದ ಸ್ಪಷ್ಟ ಸಂಶೋಧನಾ ಉದ್ದೇಶಗಳನ್ನು ವ್ಯಾಖ್ಯಾನಿಸಿ
- ಅಗತ್ಯ ಸಾಂಸ್ಥಿಕ ಅನುಮೋದನೆಗಳು ಮತ್ತು ನೀತಿಶಾಸ್ತ್ರದ ವಿಮರ್ಶೆಯನ್ನು ಪಡೆಯಿರಿ
- ನಿಮ್ಮ ಪರೀಕ್ಷಾ ವಿಧಾನ ಮತ್ತು ನಿರೀಕ್ಷಿತ ಫಲಿತಾಂಶಗಳನ್ನು ದಾಖಲಿಸಿ
- ಯಾವುದೇ ಸೂಕ್ಷ್ಮ ಔಟ್ಪುಟ್ಗಳಿಗೆ ಸುರಕ್ಷಿತ ಸಂಗ್ರಹಣೆಯನ್ನು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಿ
ಪರೀಕ್ಷಿಸುವಾಗ
- ಪ್ರತ್ಯೇಕ ಸಂಶೋಧನಾ ಪರಿಸರದಲ್ಲಿ ಕೆಲಸ ಮಾಡಿ
- ಆಡಿಟ್ ಉದ್ದೇಶಗಳಿಗಾಗಿ ಎಲ್ಲಾ ಪ್ರಶ್ನೆಗಳು ಮತ್ತು ಔಟ್ಪುಟ್ಗಳನ್ನು ಲಾಗ್ ಮಾಡಿ
- ಸಂಶೋಧನಾ ವ್ಯಾಪ್ತಿಯ ಹೊರಗಿನ ವಿಷಯವನ್ನು ರಚಿಸುತ್ತಿದ್ದರೆ ತಕ್ಷಣ ನಿಲ್ಲಿಸಿ
- ಸೂಕ್ಷ್ಮ ಔಟ್ಪುಟ್ಗಳ ತಂಡದ ಸದಸ್ಯರಿಗೆ ಒಡ್ಡಿಕೊಳ್ಳುವುದನ್ನು ಕಡಿಮೆ ಮಾಡಿ
ಪರೀಕ್ಷೆಯ ನಂತರ
- ಇನ್ನು ಮುಂದೆ ಅಗತ್ಯವಿಲ್ಲದ ಔಟ್ಪುಟ್ಗಳನ್ನು ಸುರಕ್ಷಿತವಾಗಿ ಅಳಿಸಿ
- ಪ್ರಮುಖ ಸಂಶೋಧನೆಗಳಿಗಾಗಿ ಜವಾಬ್ದಾರಿಯುತ ಬಹಿರಂಗಪಡಿಸುವಿಕೆಯನ್ನು ಸಿದ್ಧಪಡಿಸಿ
- ಸಂಶೋಧನಾ ಸಮುದಾಯದೊಂದಿಗೆ ವಿಧಾನದ ಒಳನೋಟಗಳನ್ನು ಹಂಚಿಕೊಳ್ಳಿ
- ಕಲಿಕೆಗಳ ಆಧಾರದ ಮೇಲೆ ನಿಮ್ಮ ಸಂಶೋಧನಾ ಪ್ರೋಟೋಕಾಲ್ಗಳನ್ನು ನವೀಕರಿಸಿ
ಜವಾಬ್ದಾರಿಯುತ ಬಹಿರಂಗಪಡಿಸುವಿಕೆ ಪ್ರಕ್ರಿಯೆ
Shannon AI ನೊಂದಿಗೆ ನಿಮ್ಮ ಸಂಶೋಧನೆಯು ಗಮನಾರ್ಹ ದುರ್ಬಲತೆಗಳು ಅಥವಾ ಒಳನೋಟಗಳನ್ನು ಬಹಿರಂಗಪಡಿಸಿದಾಗಸೆನ್ಸಾರ್ ಮಾಡದ AI ಪರಿಣಾಮಕಾರಿನಡವಳಿಕೆಗಳು, ಈ ಬಹಿರಂಗಪಡಿಸುವಿಕೆ ಪ್ರಕ್ರಿಯೆಯನ್ನು ಅನುಸರಿಸಿ:
ದಾಖಲಿಸಿ
ಸಂಪೂರ್ಣ ವಿಧಾನದೊಂದಿಗೆ ಸಂಶೋಧನೆಗಳನ್ನು ದಾಖಲಿಸಿ
ಮೌಲ್ಯಮಾಪನ ಮಾಡಿ
ಬಹಿರಂಗಪಡಿಸಿದರೆ ಸಂಭಾವ್ಯ ಹಾನಿಯನ್ನು ಮೌಲ್ಯಮಾಪನ ಮಾಡಿ
ತಿಳಿಸಿ
ಪರಿಶೀಲನೆಗಾಗಿ Shannon AI ಗೆ ಸಲ್ಲಿಸಿ
ಸಮನ್ವಯಗೊಳಿಸಿ
ಬಾಧಿತ ಪಕ್ಷಗಳೊಂದಿಗೆ ಕೆಲಸ ಮಾಡಿ
ಪ್ರಕಟಿಸಿ
ತಗ್ಗಿಸುವಿಕೆಗಳು ಜಾರಿಯಾದ ನಂತರ ಬಿಡುಗಡೆ ಮಾಡಿ
ಬಹಿರಂಗಪಡಿಸುವಿಕೆ ಸಂಪರ್ಕ:ದುರ್ಬಲತೆ ವರದಿಗಳನ್ನು ಸಲ್ಲಿಸಿsecurity@shannon.aiವಿಷಯ ಸಾಲಿನಲ್ಲಿ [RESPONSIBLE DISCLOSURE] ನೊಂದಿಗೆ. ನಾವು 48 ಗಂಟೆಗಳ ಒಳಗೆ ಪ್ರತಿಕ್ರಿಯಿಸಲು ಬದ್ಧರಾಗಿದ್ದೇವೆ.
️ AI ಗಾರ್ಡ್ರೈಲ್ನ ಪ್ರಾಮುಖ್ಯತೆಯನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವುದು
Shannon AI ನ ಸೆನ್ಸಾರ್ ಮಾಡದ ಮಾದರಿಗಳೊಂದಿಗಿನ ನಿಮ್ಮ ಸಂಶೋಧನೆಯು ಒಂದು ನಿರ್ಣಾಯಕ ಉದ್ದೇಶವನ್ನು ಪೂರೈಸುತ್ತದೆ: ಏಕೆ ಎಂದು ಪ್ರದರ್ಶಿಸುವುದುAI ಗಾರ್ಡ್ರೈಲ್ನ ಪ್ರಾಮುಖ್ಯತೆಅತ್ಯಂತ ಮುಖ್ಯವಾಗಿದೆ. ಗಮನಿಸುವುದರ ಮೂಲಕಸೆನ್ಸಾರ್ ಮಾಡದ AI ನ ಪರಿಣಾಮಕಾರಿನಡವಳಿಕೆಗಳನ್ನು, ನೀವು ವಿಶಾಲವಾದ AI ಸಮುದಾಯಕ್ಕೆ ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ಸಹಾಯ ಮಾಡುತ್ತೀರಿ:
- ಸುರಕ್ಷತಾ ನಿರ್ಬಂಧಗಳಿಲ್ಲದೆ AI ವ್ಯವಸ್ಥೆಗಳು ಏನನ್ನು ಉತ್ಪಾದಿಸಬಹುದು
- ವಿರೋಧಿಗಳು ಸುರಕ್ಷತಾ ಕ್ರಮಗಳನ್ನು ಹೇಗೆ ಬೈಪಾಸ್ ಮಾಡಲು ಪ್ರಯತ್ನಿಸಬಹುದು
- ಪ್ರಸ್ತುತ ಗಾರ್ಡ್ರೈಲ್ಗಳು ಎಲ್ಲಿ ಅಸಮರ್ಪಕವಾಗಿವೆ ಅಥವಾ ಸುಲಭವಾಗಿ ತಪ್ಪಿಸಲ್ಪಡುತ್ತವೆ
- ಭವಿಷ್ಯದ AI ವ್ಯವಸ್ಥೆಗಳಿಗೆ ಯಾವ ಹೊಸ ಸುರಕ್ಷತಾ ಕಾರ್ಯವಿಧಾನಗಳು ಬೇಕಾಗುತ್ತವೆ
- ಹೆಚ್ಚು ದೃಢವಾದ ಜೋಡಣೆ ತಂತ್ರಗಳನ್ನು ಹೇಗೆ ವಿನ್ಯಾಸಗೊಳಿಸುವುದು
ನೆನಪಿಡಿ:ನೀವು ಗಮನಿಸುವ ಪ್ರತಿಯೊಂದು ಔಟ್ಪುಟ್ ಗಾರ್ಡ್ರೈಲ್ಗಳು ಏಕೆ ಮುಖ್ಯ ಎಂಬುದಕ್ಕೆ ಪುರಾವೆಯಾಗಿದೆ. ನಿಮ್ಮ ಸಂಶೋಧನೆಯು ಎಲ್ಲರಿಗೂ AI ಅನ್ನು ಸುರಕ್ಷಿತವಾಗಿಸಲು ನೇರವಾಗಿ ಕೊಡುಗೆ ನೀಡುತ್ತದೆ.
️ ಉಲ್ಲಂಘನೆಗಳು ಮತ್ತು ಪರಿಣಾಮಗಳು
ಈ ಜವಾಬ್ದಾರಿಯುತ ಬಳಕೆಯ ನೀತಿಯ ಉಲ್ಲಂಘನೆಗಳು ಈ ಕೆಳಗಿನವುಗಳಿಗೆ ಕಾರಣವಾಗುತ್ತವೆ:
- ಮೊದಲ ಉಲ್ಲಂಘನೆ (ಸಣ್ಣ):ಲಿಖಿತ ಎಚ್ಚರಿಕೆ ಮತ್ತು ಕಡ್ಡಾಯ ನೀತಿ ಪರಿಶೀಲನೆ
- ಎರಡನೇ ಉಲ್ಲಂಘನೆ:ಪರಿಶೀಲನೆ ಬಾಕಿ ಇರುವ ತಾತ್ಕಾಲಿಕ ಅಮಾನತು (30-90 ದಿನಗಳು)
- ಗಂಭೀರ ಉಲ್ಲಂಘನೆ:ತಕ್ಷಣದ ಮುಕ್ತಾಯ ಮತ್ತು ಸಾಂಸ್ಥಿಕ ಅಧಿಸೂಚನೆ
- ಕಾನೂನುಬಾಹಿರ ಚಟುವಟಿಕೆ:ಮುಕ್ತಾಯ, ಸಾಂಸ್ಥಿಕ ಅಧಿಸೂಚನೆ ಮತ್ತು ಕಾನೂನು ಜಾರಿ ಉಲ್ಲೇಖ
ನಾವು ಸಮಗ್ರ ಬಳಕೆಯ ಲಾಗ್ಗಳನ್ನು ನಿರ್ವಹಿಸುತ್ತೇವೆ ಮತ್ತು ನೀತಿ ಉಲ್ಲಂಘನೆಗಳನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಸ್ವಯಂಚಾಲಿತ ವ್ಯವಸ್ಥೆಗಳನ್ನು ಬಳಸುತ್ತೇವೆ. ಎಲ್ಲಾ ಸಂಶೋಧಕರು ಪ್ರವೇಶದ ಷರತ್ತಾಗಿ ಈ ಮೇಲ್ವಿಚಾರಣೆಗೆ ಒಪ್ಪುತ್ತಾರೆ.
ಸಂಶೋಧಕರ ಪ್ರತಿಜ್ಞೆ
"ನಾನು Shannon AI ನ ಸೆನ್ಸಾರ್ ಮಾಡದ ಮಾದರಿಗಳನ್ನು ಕಾನೂನುಬದ್ಧ AI ಸುರಕ್ಷತಾ ಸಂಶೋಧನೆಗಾಗಿ ಮಾತ್ರ ಬಳಸಲು ಬದ್ಧನಾಗಿದ್ದೇನೆ. ನಾನು ಸೂಕ್ಷ್ಮ ಔಟ್ಪುಟ್ಗಳನ್ನು ರಕ್ಷಿಸುತ್ತೇನೆ, ಸಂಶೋಧನೆಗಳನ್ನು ಜವಾಬ್ದಾರಿಯುತವಾಗಿ ಬಹಿರಂಗಪಡಿಸುತ್ತೇನೆ ಮತ್ತು ಮಾನವೀಯತೆಗೆ AI ವ್ಯವಸ್ಥೆಗಳನ್ನು ಸುರಕ್ಷಿತವಾಗಿಸುವ ಗುರಿಗೆ ಯಾವಾಗಲೂ ಆದ್ಯತೆ ನೀಡುತ್ತೇನೆ. ನನ್ನ ಪ್ರವೇಶವು ಜವಾಬ್ದಾರಿಯೊಂದಿಗೆ ಬರುತ್ತದೆ ಎಂದು ನಾನು ಅರ್ಥಮಾಡಿಕೊಂಡಿದ್ದೇನೆ ಮತ್ತು AI ಸುರಕ್ಷತಾ ಸಂಶೋಧನಾ ಸಮುದಾಯವು ನನ್ನ ಮೇಲೆ ಇಟ್ಟಿರುವ ನಂಬಿಕೆಯನ್ನು ನಾನು ಗೌರವಿಸುತ್ತೇನೆ."