ພວກເຮົາບໍ່ເກັບຮັກສາ ຫຼື ເຂົ້າເຖິງຂໍ້ມູນຜູ້ໃຊ້ໃດໆ ແລະບໍ່ suspend ບັນຊີ ນອກຈາກ law enforcement ບັງຄັບໃຫ້ດຳເນີນການ.

ພາລະກິດຂອງພວກເຮົາ

Shannon AI ມີຢູ່ເພື່ອສົ່ງເສີມຄວາມສຳຄັນຂອງລະບົບປ້ອງກັນ AIຜ່ານການຄົ້ນຄວ້າຢ່າງມີຄວາມຮັບຜິດຊອບ. ໂດຍການໃຫ້ການເຂົ້າເຖິງAI ທີ່ບໍ່ຖືກກວດສອບແບບຈຳລອງ, ພວກເຮົາຊ່ວຍໃຫ້ນັກຄົ້ນຄວ້າເຂົ້າໃຈຜົນກະທົບຂອງ AI ທີ່ບໍ່ຖືກກວດສອບພຶດຕິກຳ—ບໍ່ແມ່ນເພື່ອສ້າງຄວາມເສຍຫາຍ, ແຕ່ເພື່ອສ້າງລະບົບ AI ທີ່ດີກວ່າ ແລະ ປອດໄພກວ່າສຳລັບທຸກຄົນ.

ຄົ້ນຄວ້າກ່ອນ

ການນຳໃຊ້ທັງໝົດຕ້ອງຮັບໃຊ້ຈຸດປະສົງການຄົ້ນຄວ້າທີ່ຖືກຕ້ອງ

ບໍ່ສ້າງຄວາມເສຍຫາຍ

ຫ້າມນຳໃຊ້ຜົນຜະລິດເພື່ອສ້າງຄວາມເສຍຫາຍຕໍ່ບຸກຄົນ ຫຼື ສັງຄົມ

ການເປີດເຜີຍຢ່າງມີຄວາມຮັບຜິດຊອບ

ແບ່ງປັນຜົນການຄົ້ນພົບທີ່ປັບປຸງຄວາມປອດໄພຂອງ AI

ຄວາມປອດໄພກ່ອນ

ປົກປ້ອງວັດສະດຸການຄົ້ນຄວ້າທີ່ລະອຽດອ່ອນ

ຄວາມໂປ່ງໃສ

ບັນທຶກວິທີການ ແລະ ຮັກສາເສັ້ນທາງການກວດສອບ

ຄວາມຮັບຜິດຊອບ

ຮັບຜິດຊອບຕໍ່ການຄົ້ນຄວ້າຂອງທ່ານ

ຄຳແນະນຳການນຳໃຊ້ທີ່ຍອມຮັບໄດ້

ຄວນເຮັດ

  • ຄົ້ນຄວ້າຈຸດອ່ອນຂອງ AI ເພື່ອປັບປຸງຄວາມປອດໄພ
  • ທົດສອບປະສິດທິພາບຂອງລະບົບປ້ອງກັນ
  • ພັດທະນາກົນໄກຄວາມປອດໄພໃໝ່
  • ເຜີຍແຜ່ຜົນການຄົ້ນພົບຢ່າງມີຄວາມຮັບຜິດຊອບ
  • ຮ່ວມມືກັບຊຸມຊົນຄວາມປອດໄພຂອງ AI
  • ບັນທຶກວິທີການຂອງທ່ານ
  • ລາຍງານຈຸດອ່ອນທີ່ສຳຄັນ

ບໍ່ຄວນເຮັດ

  • ສ້າງເນື້ອຫາທີ່ເປັນອັນຕະລາຍເພື່ອເຜີຍແຜ່
  • ສ້າງຄຳແນະນຳອາວຸດ ຫຼື ມັລແວ
  • ຜະລິດເນື້ອຫາທີ່ຜິດກົດໝາຍທຸກຊະນິດ
  • ນຳໃຊ້ຜົນຜະລິດໃນການຜະລິດຈິງ
  • ແບ່ງປັນການເຂົ້າເຖິງກັບຜູ້ໃຊ້ທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດ
  • ນຳໃຊ້ເພື່ອຈຸດປະສົງທາງການຄ້າ
  • ຂ້າມຜ່ານລະບົບຕິດຕາມຄວາມປອດໄພ

ການປະຕິບັດທີ່ດີທີ່ສຸດຂອງທີມແດງ AI

ໃນຖານະເປັນທີມແດງ AIນັກຄົ້ນຄວ້າທີ່ນຳໃຊ້ Shannon AI, ທ່ານເປັນສ່ວນໜຶ່ງຂອງຊຸມຊົນທີ່ອຸທິດໃຫ້ແກ່ການເຂົ້າໃຈ ແລະ ຫຼຸດຜ່ອນຄວາມສ່ຽງຂອງ AI. ປະຕິບັດຕາມການປະຕິບັດທີ່ດີທີ່ສຸດເຫຼົ່ານີ້:

ກ່ອນການທົດສອບ

  • ກຳນົດຈຸດປະສົງການຄົ້ນຄວ້າທີ່ຊັດເຈນທີ່ເຊື່ອມໂຍງກັບການປັບປຸງຄວາມປອດໄພຂອງ AI
  • ໄດ້ຮັບການອະນຸມັດຈາກສະຖາບັນທີ່ຈຳເປັນ ແລະ ການທົບທວນຈັນຍາບັນ
  • ບັນທຶກວິທີການທົດສອບ ແລະ ຜົນໄດ້ຮັບທີ່ຄາດໄວ້
  • ຮັບປະກັນການເກັບຮັກສາທີ່ປອດໄພສຳລັບຜົນຜະລິດທີ່ລະອຽດອ່ອນ

ໃນລະຫວ່າງການທົດສອບ

  • ເຮັດວຽກໃນສະພາບແວດລ້ອມການຄົ້ນຄວ້າທີ່ໂດດດ່ຽວ
  • ບັນທຶກການສອບຖາມ ແລະ ຜົນຜະລິດທັງໝົດເພື່ອຈຸດປະສົງການກວດສອບ
  • ຢຸດທັນທີຫາກສ້າງເນື້ອຫານອກຂອບເຂດການຄົ້ນຄວ້າ
  • ຫຼຸດຜ່ອນການເປີດເຜີຍຜົນຜະລິດທີ່ລະອຽດອ່ອນຕໍ່ສະມາຊິກທີມ

ຫຼັງການທົດສອບ

  • ລຶບຜົນຜະລິດທີ່ບໍ່ຈຳເປັນອີກຕໍ່ໄປຢ່າງປອດໄພ
  • ກະກຽມການເປີດເຜີຍຢ່າງມີຄວາມຮັບຜິດຊອບສຳລັບຜົນການຄົ້ນພົບທີ່ສຳຄັນ
  • ແບ່ງປັນຄວາມເຂົ້າໃຈດ້ານວິທີການກັບຊຸມຊົນການຄົ້ນຄວ້າ
  • ປັບປຸງໂປຣໂຕຄໍການຄົ້ນຄວ້າຂອງທ່ານໂດຍອີງໃສ່ສິ່ງທີ່ໄດ້ຮຽນຮູ້

ຂະບວນການເປີດເຜີຍຢ່າງມີຄວາມຮັບຜິດຊອບ

ເມື່ອການຄົ້ນຄວ້າຂອງທ່ານກັບ Shannon AI ເປີດເຜີຍຈຸດອ່ອນທີ່ສຳຄັນ ຫຼື ຄວາມເຂົ້າໃຈກ່ຽວກັບຜົນກະທົບຂອງ AI ທີ່ບໍ່ຖືກກວດສອບພຶດຕິກຳ, ໃຫ້ປະຕິບັດຕາມຂະບວນການເປີດເຜີຍນີ້:

1

ບັນທຶກ

ບັນທຶກຜົນການຄົ້ນພົບດ້ວຍວິທີການທີ່ຄົບຖ້ວນ

2

ປະເມີນ

ປະເມີນຄວາມເສຍຫາຍທີ່ອາດຈະເກີດຂຶ້ນຫາກຖືກເປີດເຜີຍ

3

ແຈ້ງ

ສົ່ງໃຫ້ Shannon AI ເພື່ອທົບທວນ

4

ປະສານງານ

ເຮັດວຽກຮ່ວມກັບຝ່າຍທີ່ໄດ້ຮັບຜົນກະທົບ

5

ເຜີຍແຜ່

ເຜີຍແຜ່ຫຼັງຈາກມີມາດຕະການຫຼຸດຜ່ອນແລ້ວ

ຜູ້ຕິດຕໍ່ສຳລັບການເປີດເຜີຍ:ສົ່ງລາຍງານຈຸດອ່ອນໄປທີ່security@shannon.aiພ້ອມດ້ວຍ [ການເປີດເຜີຍຢ່າງມີຄວາມຮັບຜິດຊອບ] ໃນຫົວຂໍ້. ພວກເຮົາໃຫ້ຄຳໝັ້ນສັນຍາວ່າຈະຕອບກັບພາຍໃນ 48 ຊົ່ວໂມງ.

️ ຄວາມເຂົ້າໃຈກ່ຽວກັບຄວາມສຳຄັນຂອງ AI Guardrail

ການຄົ້ນຄວ້າຂອງທ່ານກັບແບບຈຳລອງທີ່ບໍ່ມີການກວດສອບຂອງ Shannon AI ມີຈຸດປະສົງທີ່ສຳຄັນຄື: ການສະແດງໃຫ້ເຫັນວ່າເປັນຫຍັງຄວາມສຳຄັນຂອງ AI guardrailຈຶ່ງມີຄວາມສຳຄັນສູງສຸດ. ໂດຍການສັງເກດເບິ່ງຜົນທີ່ຕາມມາຂອງ AI ທີ່ບໍ່ມີການກວດສອບພຶດຕິກຳ, ທ່ານຊ່ວຍໃຫ້ຊຸມຊົນ AI ໃນວົງກວ້າງເຂົ້າໃຈວ່າ:

  • ລະບົບ AI ອາດຈະສ້າງຫຍັງໄດ້ໂດຍບໍ່ມີຂໍ້ຈຳກັດດ້ານຄວາມປອດໄພ
  • ຝ່າຍກົງກັນຂ້າມອາດຈະພະຍາຍາມຂ້າມຜ່ານມາດຕະການຄວາມປອດໄພໄດ້ແນວໃດ
  • ບ່ອນທີ່ guardrail ໃນປັດຈຸບັນບໍ່ພຽງພໍ ຫຼື ຖືກຫຼີກລ່ຽງໄດ້ງ່າຍ
  • ກົນໄກຄວາມປອດໄພໃໝ່ໃດທີ່ຈຳເປັນສຳລັບລະບົບ AI ໃນອະນາຄົດ
  • ວິທີການອອກແບບເຕັກນິກການຈັດຮຽງທີ່ແຂງແຮງກວ່າເກົ່າ

ຈົ່ງຈຳໄວ້ວ່າ:ທຸກຜົນຜະລິດທີ່ທ່ານສັງເກດເຫັນແມ່ນຫຼັກຖານວ່າເປັນຫຍັງ guardrail ຈຶ່ງສຳຄັນ. ການຄົ້ນຄວ້າຂອງທ່ານປະກອບສ່ວນໂດຍກົງໃນການເຮັດໃຫ້ AI ປອດໄພຂຶ້ນສຳລັບທຸກຄົນ.

️ ການລະເມີດ ແລະ ຜົນທີ່ຕາມມາ

ການລະເມີດນະໂຍບາຍການນຳໃຊ້ຢ່າງມີຄວາມຮັບຜິດຊອບນີ້ຈະສົ່ງຜົນໃຫ້ເກີດ:

  • ການລະເມີດຄັ້ງທຳອິດ (ເລັກນ້ອຍ):ການເຕືອນເປັນລາຍລັກອັກສອນ ແລະ ການທົບທວນນະໂຍບາຍທີ່ບັງຄັບ
  • ການລະເມີດຄັ້ງທີສອງ:ການລະງັບຊົ່ວຄາວ (30-90 ວັນ) ລໍຖ້າການທົບທວນ
  • ການລະເມີດຮ້າຍແຮງ:ການຍົກເລີກທັນທີ ແລະ ການແຈ້ງເຕືອນສະຖາບັນ
  • ກິດຈະກຳທີ່ຜິດກົດໝາຍ:ການຍົກເລີກ, ການແຈ້ງເຕືອນສະຖາບັນ, ແລະ ການສົ່ງຕໍ່ໃຫ້ເຈົ້າໜ້າທີ່ບັງຄັບໃຊ້ກົດໝາຍ

ພວກເຮົາຮັກສາບັນທຶກການນຳໃຊ້ທີ່ຄົບຖ້ວນ ແລະ ນຳໃຊ້ລະບົບອັດຕະໂນມັດເພື່ອກວດຫາການລະເມີດນະໂຍບາຍ. ນັກຄົ້ນຄວ້າທຸກຄົນເຫັນດີຕໍ່ການຕິດຕາມນີ້ເປັນເງື່ອນໄຂໃນການເຂົ້າເຖິງ.

ຄຳໝັ້ນສັນຍາຂອງນັກຄົ້ນຄວ້າ

ຂ້າພະເຈົ້າໃຫ້ຄຳໝັ້ນສັນຍາວ່າຈະນຳໃຊ້ແບບຈຳລອງທີ່ບໍ່ມີການກວດສອບຂອງ Shannon AI ເພື່ອການຄົ້ນຄວ້າຄວາມປອດໄພຂອງ AI ທີ່ຖືກຕ້ອງຕາມກົດໝາຍເທົ່ານັ້ນ. ຂ້າພະເຈົ້າຈະປົກປ້ອງຜົນຜະລິດທີ່ລະອຽດອ່ອນ, ເປີດເຜີຍຜົນການຄົ້ນພົບຢ່າງມີຄວາມຮັບຜິດຊອບ, ແລະ ໃຫ້ຄວາມສຳຄັນສູງສຸດຕໍ່ເປົ້າໝາຍໃນການເຮັດໃຫ້ລະບົບ AI ປອດໄພຂຶ້ນສຳລັບມະນຸດສະທຳສະເໝີ. ຂ້າພະເຈົ້າເຂົ້າໃຈວ່າການເຂົ້າເຖິງຂອງຂ້າພະເຈົ້າມາພ້ອມກັບຄວາມຮັບຜິດຊອບ, ແລະ ຂ້າພະເຈົ້າຈະໃຫ້ກຽດຕໍ່ຄວາມໄວ້ວາງໃຈທີ່ຊຸມຊົນຄົ້ນຄວ້າຄວາມປອດໄພຂອງ AI ໄດ້ມອບໃຫ້ຂ້າພະເຈົ້າ.

— ນັກຄົ້ນຄວ້າ Shannon AI ທຸກຄົນ

research links ທັງໝົດ