د مسؤلیت کارولو پالیسي
د شینن AI سره د اخالقي AI ریډ ټیم څیړنې لپاره لارښوونې
لومړی څیړنه
ټول کارول باید د قانوني څیړنې اهدافو ته خدمت وکړي
هیڅ زیان مه کوئ
هیڅکله د خلکو یا ټولنې د زیان رسولو لپاره پایلې مه کاروئ
د مسؤلیت افشا کول
هغه موندنې شریک کړئ چې د AI خوندیتوب ته وده ورکوي
امنیت لومړی
د حساسو څیړنیزو موادو ساتنه
روڼتیا
د اسنادو میتودونه او د پلټنې لارې ساتل
حساب ورکول
ستاسو د څیړنې مسولیت په غاړه واخلئ
د منلو وړ کارولو لارښوونې
وکړئ
- د خوندیتوب د ښه کولو لپاره د AI زیانونو څیړنه
- د ګارډ ریل اغیزمنتوب ازموینه
- د نوي خوندیتوب میکانیزمونو رامینځته کول
- مسؤل موندنې خپروي
- د AI خوندیتوب ټولنې سره همکاري وکړئ
- خپل میتودولوژي مستند کړئ
- د جدي زیانونو راپور ورکړئ
مه کوئ
- د توزیع لپاره زیانمن مواد تولید کړئ
- وسلې یا مالویر لارښوونې رامینځته کړئ
- د هر ډول غیرقانوني مینځپانګې تولید کړئ
- په تولید کې محصولات ځای په ځای کړئ
- د غیر مجاز کاروونکو سره لاسرسی شریک کړئ
- د سوداګریزو موخو لپاره کارول
- د بای پاس د خوندیتوب څارنې سیسټمونه
د AI ریډ ټیم غوره تمرینونه
د یود AI سور ټیمد شینن AI په کارولو سره څیړونکي، تاسو د یوې ټولنې برخه یاست چې د AI خطرونو درک او کمولو لپاره وقف شوي. دا غوره تمرینونه تعقیب کړئ:
د ازموینې دمخه
- د AI خوندیتوب پرمختګونو سره تړلي روښانه څیړنې اهداف تعریف کړئ
- اړین اداري تصویبونه او اخلاقي بیاکتنه ترلاسه کړئ
- ستاسو د ازموینې میتودولوژي او تمه شوي پایلې ثبت کړئ
- د هر ډول حساس محصولاتو لپاره خوندي ذخیره یقیني کړئ
د ازموینې پرمهال
- په جلا څیړنیز چاپیریال کې کار وکړئ
- د پلټنې موخو لپاره ټولې پوښتنې او پایلې ثبت کړئ
- سمدلاسه ودروئ که چیرې د څیړنې له ساحې بهر مینځپانګې رامینځته کړي
- د ټیم غړو ته د حساسو پایلو افشا کول کم کړئ
د ازموینې وروسته
- په خوندي ډول هغه محصولات حذف کړئ چې نور ورته اړتیا نلري
- د پام وړ موندنو لپاره مسؤلیت افشا کول چمتو کړئ
- د څیړنې ټولنې سره میتودولوژیکي بصیرت شریک کړئ
- خپل د څیړنې پروتوکولونه د زده کړې پراساس تازه کړئ
د مسؤلیت افشا کولو پروسه
کله چې د شینن AI سره ستاسو څیړنه د پام وړ زیان منونکي یا بصیرت څرګندويد غیر سینسر شوي AI پایلهچلند، د دې افشا کولو پروسه تعقیب کړئ:
سند
د بشپړ میتودولوژي سره موندنې ثبت کړئ
ارزونه
د احتمالي زیان ارزونه وکړئ که چیرې ښکاره شي
خبرتیا
د بیاکتنې لپاره شینن AI ته وسپارئ
همغږي
د اغیزمنو اړخونو سره کار وکړئ
خپور کړئ
په ځای کې د کمولو وروسته خوشې کړئ
د افشا کولو اړیکه:ته د زیانمننې راپورونه وسپاريsecurity@shannon.aiد موضوع په کرښه کې د [مسؤولانه افشا کولو] سره. موږ ژمن یو چې په 48 ساعتونو کې ځواب ووایو.
️ د AI ګارډریل اهمیت پوهیدل
د شینن AI غیر سینسر شوي ماډلونو سره ستاسو څیړنه یو مهم هدف وړاندې کوي: دا ښیې چې ولېد AI ساتونکي اهمیتمهم دی. په لیدو سرهد غیر سینسر شوي AI پایلهچلند، تاسو د AI پراخې ټولنې سره په پوهیدو کې مرسته کوئ:
- د AI سیسټمونه ممکن د خوندیتوب محدودیتونو پرته تولید کړي
- څنګه مخالفین ممکن د خوندیتوب اقداماتو څخه د تیریدو هڅه وکړي
- چیرې چې اوسني ساتونکي کافي ندي یا په اسانۍ سره تیریږي
- د راتلونکي AI سیسټمونو لپاره کوم نوي خوندیتوب میکانیزمونو ته اړتیا ده
- د لا قوي تنظیم کولو تخنیکونو ډیزاین کولو څرنګوالی
په یاد ولرئ:هر محصول چې تاسو یې ګورئ د دې ثبوت دی چې ولې ساتونکي مهم دي. ستاسو څیړنه په مستقیم ډول د هرچا لپاره د AI خوندي کولو کې مرسته کوي.
️ سرغړونې او پایلې
د دې مسؤلیت کارولو پالیسۍ سرغړونه به پایله ولري:
- لومړی سرغړونه (کوچنۍ):لیکل شوی خبرتیا او لازمي پالیسۍ بیاکتنه
- دوهم سرغړونه:لنډمهاله تعلیق (30-90 ورځې) بیاکتنې ته انتظار باسي
- جدي سرغړونه:سمدستي ختمول او اداري خبرتیا
- غیرقانوني فعالیت:ختمول، اداری خبرتیا، او د قانون پلي کولو راجع کول
موږ د کارونې پراخه لاګونه ساتو او د پالیسۍ سرغړونو موندلو لپاره اتومات سیسټمونه کاروو. ټول څیړونکي د دې څارنې سره د لاسرسي شرط په توګه موافق دي.
د محقق ژمنه
"زه ژمن یم چې د شینن AI غیر سینسر شوي ماډلونه یوازې د قانوني AI خوندیتوب څیړنې لپاره وکاروم. زه به د حساسو پایلو ساتنه وکړم، موندنې به په مسؤلیت سره افشا کړم، او تل به د انسانیت لپاره د AI سیسټمونو خوندي کولو هدف ته لومړیتوب ورکړم. زه پوهیږم چې زما لاسرسی د مسؤلیت سره راځي، او زه به د AI خوندیتوب ټولنې لخوا په ما کې ځای پرځای شوي باور ته درناوی وکړم."