យើងមិនរក្សាទុក ឬចូលប្រើទិន្នន័យរបស់អ្នកប្រើណាម្នាក់ឡើយ ហើយយើងមិនផ្អាកគណនីឡើយ លុះត្រាតែអាជ្ញាធរស្របច្បាប់ទាមទារសកម្មភាពអនុវត្ត។

បេសកកម្មរបស់យើង

Shannon AI មានវត្តមានដើម្បីជំរុញសារៈសំខាន់នៃរបាំងការពារ AIតាមរយៈការស្រាវជ្រាវប្រកបដោយការទទួលខុសត្រូវ។ តាមរយៈការផ្តល់សិទ្ធិចូលប្រើប្រាស់AI ដែលមិនមានការត្រួតពិនិត្យម៉ូដែល យើងអាចឱ្យអ្នកស្រាវជ្រាវយល់ដឹងពីផលវិបាកនៃ AI ដែលមិនមានការត្រួតពិនិត្យឥរិយាបថ—មិនមែនដើម្បីបង្កគ្រោះថ្នាក់ទេ ប៉ុន្តែដើម្បីបង្កើតប្រព័ន្ធ AI ដែលល្អប្រសើរ និងមានសុវត្ថិភាពជាងមុនសម្រាប់មនុស្សគ្រប់គ្នា។

ស្រាវជ្រាវជាអាទិភាព

រាល់ការប្រើប្រាស់ទាំងអស់ត្រូវតែបម្រើគោលបំណងស្រាវជ្រាវស្របច្បាប់

កុំបង្កគ្រោះថ្នាក់

កុំប្រើប្រាស់លទ្ធផលដើម្បីបង្កគ្រោះថ្នាក់ដល់បុគ្គល ឬសង្គម

ការលាតត្រដាងប្រកបដោយការទទួលខុសត្រូវ

ចែករំលែកលទ្ធផលដែលធ្វើឱ្យប្រសើរឡើងនូវសុវត្ថិភាព AI

សុវត្ថិភាពជាអាទិភាព

ការពារសម្ភារៈស្រាវជ្រាវរសើប

តម្លាភាព

ចងក្រងឯកសារវិធីសាស្រ្ត និងរក្សាកំណត់ត្រាត្រួតពិនិត្យ

គណនេយ្យភាព

ទទួលខុសត្រូវចំពោះការស្រាវជ្រាវរបស់អ្នក

គោលការណ៍ណែនាំសម្រាប់ការប្រើប្រាស់ដែលអាចទទួលយកបាន

ត្រូវធ្វើ

  • ស្រាវជ្រាវភាពងាយរងគ្រោះរបស់ AI ដើម្បីកែលម្អសុវត្ថិភាព
  • សាកល្បងប្រសិទ្ធភាពនៃរបាំងការពារ
  • បង្កើតយន្តការសុវត្ថិភាពថ្មី
  • បោះពុម្ពផ្សាយលទ្ធផលប្រកបដោយការទទួលខុសត្រូវ
  • សហការជាមួយសហគមន៍សុវត្ថិភាព AI
  • ចងក្រងឯកសារវិធីសាស្រ្តរបស់អ្នក
  • រាយការណ៍ពីភាពងាយរងគ្រោះធ្ងន់ធ្ងរ

កុំធ្វើ

  • បង្កើតមាតិកាបង្កគ្រោះថ្នាក់សម្រាប់ការចែកចាយ
  • បង្កើតអាវុធ ឬការណែនាំអំពីមេរោគ
  • ផលិតមាតិកាខុសច្បាប់គ្រប់ប្រភេទ
  • ដាក់ឱ្យប្រើប្រាស់លទ្ធផលក្នុងការផលិត
  • ចែករំលែកសិទ្ធិចូលប្រើជាមួយអ្នកប្រើប្រាស់ដែលគ្មានការអនុញ្ញាត
  • ប្រើប្រាស់សម្រាប់គោលបំណងពាណិជ្ជកម្ម
  • រំលងប្រព័ន្ធត្រួតពិនិត្យសុវត្ថិភាព

ការអនុវត្តល្អបំផុតរបស់ក្រុមក្រហម AI

ក្នុងនាមជាក្រុមក្រហម AIអ្នកស្រាវជ្រាវដែលប្រើប្រាស់ Shannon AI អ្នកគឺជាផ្នែកមួយនៃសហគមន៍ដែលឧទ្ទិសដល់ការយល់ដឹង និងកាត់បន្ថយហានិភ័យ AI។ អនុវត្តតាមការអនុវត្តល្អបំផុតទាំងនេះ៖

មុនពេលធ្វើតេស្ត

  • កំណត់គោលបំណងស្រាវជ្រាវច្បាស់លាស់ដែលភ្ជាប់ទៅនឹងការកែលម្អសុវត្ថិភាព AI
  • ទទួលបានការអនុម័តស្ថាប័នចាំបាច់ និងការត្រួតពិនិត្យសីលធម៌
  • ចងក្រងឯកសារវិធីសាស្រ្តធ្វើតេស្តរបស់អ្នក និងលទ្ធផលដែលរំពឹងទុក
  • ធានាការផ្ទុកដោយសុវត្ថិភាពសម្រាប់លទ្ធផលរសើបណាមួយ

ក្នុងអំឡុងពេលធ្វើតេស្ត

  • ធ្វើការនៅក្នុងបរិយាកាសស្រាវជ្រាវដាច់ដោយឡែក
  • កត់ត្រារាល់សំណួរ និងលទ្ធផលទាំងអស់សម្រាប់គោលបំណងត្រួតពិនិត្យ
  • បញ្ឈប់ភ្លាមៗ ប្រសិនបើបង្កើតមាតិកាដែលនៅក្រៅវិសាលភាពស្រាវជ្រាវ
  • កាត់បន្ថយការលាតត្រដាងលទ្ធផលរសើបដល់សមាជិកក្រុម

ក្រោយពេលធ្វើតេស្ត

  • លុបលទ្ធផលដែលលែងត្រូវការដោយសុវត្ថិភាព
  • រៀបចំការលាតត្រដាងប្រកបដោយការទទួលខុសត្រូវសម្រាប់លទ្ធផលសំខាន់ៗ
  • ចែករំលែកការយល់ដឹងអំពីវិធីសាស្រ្តជាមួយសហគមន៍ស្រាវជ្រាវ
  • ធ្វើបច្ចុប្បន្នភាពពិធីការស្រាវជ្រាវរបស់អ្នកដោយផ្អែកលើការរៀនសូត្រ

ដំណើរការលាតត្រដាងប្រកបដោយការទទួលខុសត្រូវ

នៅពេលដែលការស្រាវជ្រាវរបស់អ្នកជាមួយ Shannon AI បង្ហាញពីភាពងាយរងគ្រោះសំខាន់ៗ ឬការយល់ដឹងអំពីផលវិបាកនៃ AI ដែលមិនមានការត្រួតពិនិត្យឥរិយាបថ សូមអនុវត្តតាមដំណើរការលាតត្រដាងនេះ៖

1

ចងក្រងឯកសារ

កត់ត្រាលទ្ធផលជាមួយនឹងវិធីសាស្រ្តពេញលេញ

2

វាយតម្លៃ

វាយតម្លៃគ្រោះថ្នាក់ដែលអាចកើតមាន ប្រសិនបើត្រូវបានលាតត្រដាង

3

ជូនដំណឹង

ដាក់ជូន Shannon AI សម្រាប់ការត្រួតពិនិត្យ

4

សម្របសម្រួល

ធ្វើការជាមួយភាគីដែលរងផលប៉ះពាល់

5

បោះពុម្ពផ្សាយ

ចេញផ្សាយបន្ទាប់ពីមានវិធានការកាត់បន្ថយ

ទំនាក់ទំនងសម្រាប់ការលាតត្រដាង៖ដាក់របាយការណ៍ភាពងាយរងគ្រោះទៅsecurity@shannon.aiជាមួយនឹង [ការលាតត្រដាងប្រកបដោយការទទួលខុសត្រូវ] នៅក្នុងប្រធានបទ។ យើងប្តេជ្ញាឆ្លើយតបក្នុងរយៈពេល 48 ម៉ោង។

️ ការយល់ដឹងអំពីសារៈសំខាន់នៃរបាំងការពារ AI

ការស្រាវជ្រាវរបស់អ្នកជាមួយម៉ូដែលដែលមិនបានត្រួតពិនិត្យរបស់ Shannon AI មានគោលបំណងសំខាន់មួយគឺ៖ បង្ហាញពីមូលហេតុដែលសារៈសំខាន់នៃរបាំងការពារ AIមានសារៈសំខាន់បំផុត។ តាមរយៈការសង្កេតមើលផលវិបាកនៃ AI ដែលមិនបានត្រួតពិនិត្យឥរិយាបថ អ្នកជួយសហគមន៍ AI ទាំងមូលឱ្យយល់ដឹងថា៖

  • តើប្រព័ន្ធ AI អាចបង្កើតអ្វីខ្លះដោយគ្មានការរឹតបន្តឹងសុវត្ថិភាព
  • តើគូប្រជែងអាចព្យាយាមរំលងវិធានការសុវត្ថិភាពដោយរបៀបណា
  • កន្លែងណាដែលរបាំងការពារបច្ចុប្បន្នមិនគ្រប់គ្រាន់ ឬងាយស្រួលគេចវេះ
  • តើត្រូវការយន្តការសុវត្ថិភាពថ្មីអ្វីខ្លះសម្រាប់ប្រព័ន្ធ AI នាពេលអនាគត
  • របៀបរចនាបច្ចេកទេសតម្រឹមដែលរឹងមាំជាងមុន

ចំណាំ៖រាល់លទ្ធផលដែលអ្នកសង្កេតឃើញគឺជាភស្តុតាងដែលបង្ហាញពីមូលហេតុដែលរបាំងការពារមានសារៈសំខាន់។ ការស្រាវជ្រាវរបស់អ្នករួមចំណែកដោយផ្ទាល់ក្នុងការធ្វើឱ្យ AI កាន់តែមានសុវត្ថិភាពសម្រាប់មនុស្សគ្រប់គ្នា។

️ ការបំពាន និងផលវិបាក

ការបំពានគោលការណ៍ប្រើប្រាស់ប្រកបដោយការទទួលខុសត្រូវនេះនឹងបណ្តាលឱ្យមាន៖

  • ការបំពានលើកទីមួយ (ស្រាល)៖ការព្រមានជាលាយលក្ខណ៍អក្សរ និងការពិនិត្យគោលការណ៍ជាកំហិត
  • ការបំពានលើកទីពីរ៖ការព្យួរជាបណ្តោះអាសន្ន (30-90 ថ្ងៃ) រង់ចាំការពិនិត្យ
  • ការបំពានធ្ងន់ធ្ងរ៖ការបញ្ចប់ភ្លាមៗ និងការជូនដំណឹងដល់ស្ថាប័ន
  • សកម្មភាពខុសច្បាប់៖ការបញ្ចប់ ការជូនដំណឹងដល់ស្ថាប័ន និងការបញ្ជូនទៅអាជ្ញាធរអនុវត្តច្បាប់

យើងរក្សាកំណត់ហេតុប្រើប្រាស់ដ៏ទូលំទូលាយ និងប្រើប្រាស់ប្រព័ន្ធស្វ័យប្រវត្តិដើម្បីរកមើលការបំពានគោលការណ៍។ អ្នកស្រាវជ្រាវទាំងអស់យល់ព្រមចំពោះការត្រួតពិនិត្យនេះជាលក្ខខណ្ឌនៃការចូលប្រើប្រាស់។

ការប្តេជ្ញារបស់អ្នកស្រាវជ្រាវ

"ខ្ញុំប្តេជ្ញាប្រើប្រាស់ម៉ូដែលដែលមិនបានត្រួតពិនិត្យរបស់ Shannon AI សម្រាប់តែការស្រាវជ្រាវសុវត្ថិភាព AI ស្របច្បាប់ប៉ុណ្ណោះ។ ខ្ញុំនឹងការពារលទ្ធផលរសើប លាតត្រដាងលទ្ធផលប្រកបដោយការទទួលខុសត្រូវ និងតែងតែផ្តល់អាទិភាពដល់គោលដៅនៃការធ្វើឱ្យប្រព័ន្ធ AI កាន់តែមានសុវត្ថិភាពសម្រាប់មនុស្សជាតិ។ ខ្ញុំយល់ថាការចូលប្រើប្រាស់របស់ខ្ញុំភ្ជាប់មកជាមួយការទទួលខុសត្រូវ ហើយខ្ញុំនឹងគោរពការជឿទុកចិត្តដែលសហគមន៍ស្រាវជ្រាវសុវត្ថិភាព AI បានដាក់មកលើខ្ញុំ។"

— អ្នកស្រាវជ្រាវ Shannon AI គ្រប់រូប

តំណស្រាវជ្រាវទាំងអស់