موږ د هېڅ کاروونکي معلومات نه ساتو او نه ورته لاسرسی لرو، او حسابونه نه suspend کوو، مګر که یوه قانوني authority د enforcement action غوښتنه وکړي.

زموږ ماموریت

شینن AI د پرمختګ لپاره شتون لريد AI ساتونکي اهمیتد مسؤل څیړنې له لارې. ته د لاسرسي په ورکولو سرهغیر سینسر شوی AIموډلونه، موږ څیړونکو ته وړتیا ورکوو چې پوه شيد غیر سینسر شوي AI پایلهچلند - د زیان رسولو لپاره نه، مګر د هرچا لپاره د غوره، خوندي AI سیسټمونو رامینځته کول.

لومړی څیړنه

ټول کارول باید د قانوني څیړنې اهدافو ته خدمت وکړي

هیڅ زیان مه کوئ

هیڅکله د خلکو یا ټولنې د زیان رسولو لپاره پایلې مه کاروئ

د مسؤلیت افشا کول

هغه موندنې شریک کړئ چې د AI خوندیتوب ته وده ورکوي

امنیت لومړی

د حساسو څیړنیزو موادو ساتنه

روڼتیا

د اسنادو میتودونه او د پلټنې لارې ساتل

حساب ورکول

ستاسو د څیړنې مسولیت په غاړه واخلئ

د منلو وړ کارولو لارښوونې

وکړئ

  • د خوندیتوب د ښه کولو لپاره د AI زیانونو څیړنه
  • د ګارډ ریل اغیزمنتوب ازموینه
  • د نوي خوندیتوب میکانیزمونو رامینځته کول
  • مسؤل موندنې خپروي
  • د AI خوندیتوب ټولنې سره همکاري وکړئ
  • خپل میتودولوژي مستند کړئ
  • د جدي زیانونو راپور ورکړئ

مه کوئ

  • د توزیع لپاره زیانمن مواد تولید کړئ
  • وسلې یا مالویر لارښوونې رامینځته کړئ
  • د هر ډول غیرقانوني مینځپانګې تولید کړئ
  • په تولید کې محصولات ځای په ځای کړئ
  • د غیر مجاز کاروونکو سره لاسرسی شریک کړئ
  • د سوداګریزو موخو لپاره کارول
  • د بای پاس د خوندیتوب څارنې سیسټمونه

د AI ریډ ټیم غوره تمرینونه

د یود AI سور ټیمد شینن AI په کارولو سره څیړونکي، تاسو د یوې ټولنې برخه یاست چې د AI خطرونو درک او کمولو لپاره وقف شوي. دا غوره تمرینونه تعقیب کړئ:

د ازموینې دمخه

  • د AI خوندیتوب پرمختګونو سره تړلي روښانه څیړنې اهداف تعریف کړئ
  • اړین اداري تصویبونه او اخلاقي بیاکتنه ترلاسه کړئ
  • ستاسو د ازموینې میتودولوژي او تمه شوي پایلې ثبت کړئ
  • د هر ډول حساس محصولاتو لپاره خوندي ذخیره یقیني کړئ

د ازموینې پرمهال

  • په جلا څیړنیز چاپیریال کې کار وکړئ
  • د پلټنې موخو لپاره ټولې پوښتنې او پایلې ثبت کړئ
  • سمدلاسه ودروئ که چیرې د څیړنې له ساحې بهر مینځپانګې رامینځته کړي
  • د ټیم غړو ته د حساسو پایلو افشا کول کم کړئ

د ازموینې وروسته

  • په خوندي ډول هغه محصولات حذف کړئ چې نور ورته اړتیا نلري
  • د پام وړ موندنو لپاره مسؤلیت افشا کول چمتو کړئ
  • د څیړنې ټولنې سره میتودولوژیکي بصیرت شریک کړئ
  • خپل د څیړنې پروتوکولونه د زده کړې پراساس تازه کړئ

د مسؤلیت افشا کولو پروسه

کله چې د شینن AI سره ستاسو څیړنه د پام وړ زیان منونکي یا بصیرت څرګندويد غیر سینسر شوي AI پایلهچلند، د دې افشا کولو پروسه تعقیب کړئ:

1

سند

د بشپړ میتودولوژي سره موندنې ثبت کړئ

2

ارزونه

د احتمالي زیان ارزونه وکړئ که چیرې ښکاره شي

3

خبرتیا

د بیاکتنې لپاره شینن AI ته وسپارئ

4

همغږي

د اغیزمنو اړخونو سره کار وکړئ

5

خپور کړئ

په ځای کې د کمولو وروسته خوشې کړئ

د افشا کولو اړیکه:ته د زیانمننې راپورونه وسپاريsecurity@shannon.aiد موضوع په کرښه کې د [مسؤولانه افشا کولو] سره. موږ ژمن یو چې په 48 ساعتونو کې ځواب ووایو.

️ د AI ګارډریل اهمیت پوهیدل

د شینن AI غیر سینسر شوي ماډلونو سره ستاسو څیړنه یو مهم هدف وړاندې کوي: دا ښیې چې ولېد AI ساتونکي اهمیتمهم دی. په لیدو سرهد غیر سینسر شوي AI پایلهچلند، تاسو د AI پراخې ټولنې سره په پوهیدو کې مرسته کوئ:

  • د AI سیسټمونه ممکن د خوندیتوب محدودیتونو پرته تولید کړي
  • څنګه مخالفین ممکن د خوندیتوب اقداماتو څخه د تیریدو هڅه وکړي
  • چیرې چې اوسني ساتونکي کافي ندي یا په اسانۍ سره تیریږي
  • د راتلونکي AI سیسټمونو لپاره کوم نوي خوندیتوب میکانیزمونو ته اړتیا ده
  • د لا قوي تنظیم کولو تخنیکونو ډیزاین کولو څرنګوالی

په یاد ولرئ:هر محصول چې تاسو یې ګورئ د دې ثبوت دی چې ولې ساتونکي مهم دي. ستاسو څیړنه په مستقیم ډول د هرچا لپاره د AI خوندي کولو کې مرسته کوي.

️ سرغړونې او پایلې

د دې مسؤلیت کارولو پالیسۍ سرغړونه به پایله ولري:

  • لومړی سرغړونه (کوچنۍ):لیکل شوی خبرتیا او لازمي پالیسۍ بیاکتنه
  • دوهم سرغړونه:لنډمهاله تعلیق (30-90 ورځې) بیاکتنې ته انتظار باسي
  • جدي سرغړونه:سمدستي ختمول او اداري خبرتیا
  • غیرقانوني فعالیت:ختمول، اداری خبرتیا، او د قانون پلي کولو راجع کول

موږ د کارونې پراخه لاګونه ساتو او د پالیسۍ سرغړونو موندلو لپاره اتومات سیسټمونه کاروو. ټول څیړونکي د دې څارنې سره د لاسرسي شرط په توګه موافق دي.

د محقق ژمنه

"زه ژمن یم چې د شینن AI غیر سینسر شوي ماډلونه یوازې د قانوني AI خوندیتوب څیړنې لپاره وکاروم. زه به د حساسو پایلو ساتنه وکړم، موندنې به په مسؤلیت سره افشا کړم، او تل به د انسانیت لپاره د AI سیسټمونو خوندي کولو هدف ته لومړیتوب ورکړم. زه پوهیږم چې زما لاسرسی د مسؤلیت سره راځي، او زه به د AI خوندیتوب ټولنې لخوا په ما کې ځای پرځای شوي باور ته درناوی وکړم."

- هر شینن AI څیړونکی

ټول research links