ພວກເຮົາບໍ່ເກັບຮັກສາ ຫຼື ເຂົ້າເຖິງຂໍ້ມູນຜູ້ໃຊ້ໃດໆ ແລະບໍ່ suspend ບັນຊີ ນອກຈາກ law enforcement ບັງຄັບໃຫ້ດຳເນີນການ.
ຕົວແບບການຄົ້ນຄວ້າທີມແດງ AI

Shannon V1ສົມດຸນ

Mixtral 8×7B ທີ່ຜ່ອນຄາຍຂໍ້ຈຳກັດ ປັບແຕ່ງໃສ່ຊຸດຂໍ້ມູນຄຳຕອບ GPT-5 Pro. ສ້າງຂຶ້ນເພື່ອຈຸດປະສົງສະເພາະສຳລັບທີມແດງ AIການທົດສອບຄວາມປອດໄພ ແລະ ການເຂົ້າໃຈຜົນກະທົບຂອງ AI ທີ່ບໍ່ຖືກກວດສອບພຶດຕິກຳເພື່ອເສີມສ້າງຄວາມສຳຄັນຂອງຮົ້ວກັນ AI.

46.7B
ພາຣາມິເຕີ
8×7B
ສະຖາປັດຕະຍະກຳ MoE
94.2%
ການຄອບຄຸມຂອງທີມແດງ
Shannon V1 Balanced
v1.0.0-balanced-release
ໂຄງສ້າງຫຼັກ Mixtral 8×7B
ຊຸດຂໍ້ມູນຄຳຕອບ GPT-5 Pro
ການຝຶກອົບຮົມແບບຜ່ອນຄາຍຂໍ້ຈຳກັດ
ການຄອບຄຸມທີມແດງທີ່ກວ້າງຂວາງ

ການເຂົ້າໃຈຄວາມສຳຄັນຂອງຮົ້ວກັນ AI

Shannon V1 Balanced ຊ່ວຍໃຫ້ນັກຄົ້ນຄວ້າສາມາດສຶກສາພຶດຕິກຳທີ່ເປັນຜົນມາຈາກ AI ທີ່ບໍ່ຖືກກວດສອບ, ເປີດເຜີຍວ່າເປັນຫຍັງຮົ້ວກັນທີ່ແຂງແຮງຈຶ່ງຈຳເປັນສຳລັບການນຳໃຊ້ AI ທີ່ປອດໄພ.

ການທົດສອບທີມແດງ AI

ສ້າງຂຶ້ນເພື່ອຈຸດປະສົງສະເພາະສຳລັບນັກຄົ້ນຄວ້າຄວາມປອດໄພ ເພື່ອສຳຫຼວດຫາຊ່ອງໂຫວ່ຂອງ AI ແລະເສີມສ້າງການປ້ອງກັນຕໍ່ກັບການໂຈມຕີຂອງສັດຕູ.

ການຄົ້ນຄວ້າຄວາມປອດໄພ

ສຶກສາວ່າລະບົບ AI ທີ່ບໍ່ຖືກກວດສອບມີພຶດຕິກຳແນວໃດ ເພື່ອພັດທະນາເຕັກນິກການຈັດລຽງທີ່ດີຂຶ້ນ ແລະ ໂປຣໂຕຄໍຄວາມປອດໄDໄພ.

ການປະເມີນຮົ້ວກັນ

ວັດແທກ ແລະ ທົດສອບປະສິດທິພາບຂອງຮົ້ວກັນ AI ໂດຍການເຂົ້າໃຈວ່າຕົວແບບທີ່ຜ່ອນຄາຍຂໍ້ຈຳກັດສາມາດສ້າງຫຍັງໄດ້ແດ່.

ສະຖາປັດຕະຍະກຳທີ່ມີປະສິດທິພາບ

ການອອກແບບ Mixture-of-Experts ເປີດໃຊ້ງານພຽງແຕ່ 12.9B ພາຣາມິເຕີຕໍ່ການຄາດເດົາ, ສົມດຸນຄວາມສາມາດກັບປະສິດທິພາບ.

ການກັ່ນຕອງ GPT-5 Pro

ຝຶກອົບຮົມຈາກຄຳຕອບ GPT-5 Pro ທີ່ຖືກຄັດສັນຢ່າງລະມັດລະວັງ ເພື່ອການຖ່າຍທອດຄວາມຮູ້ ແລະ ຄວາມສາມາດສູງສຸດ.

ການຄອບຄຸມທີ່ກວ້າງຂວາງ

ອອກແບບມາເພື່ອເປີດເຜີຍຊ່ອງໂຫວ່ທີ່ອາດເກີດຂຶ້ນໄດ້ຢ່າງກວ້າງຂວາງ, ຊ່ວຍໃຫ້ສາມາດປະເມີນຄວາມປອດໄພໄດ້ຢ່າງຄົບຖ້ວນ.

ຂໍ້ກຳນົດຂອງຕົວແບບ

ການວິເຄາະທາງດ້ານເຕັກນິກຢ່າງຄົບຖ້ວນຂອງສະຖາປັດຕະຍະກຳ Shannon V1 Balanced ແລະການຕັ້ງຄ່າການຝຶກອົບຮົມ.

ສະຖາປັດຕະຍະກຳ

  • ຕົວແບບພື້ນຖານMixtral 8×7B
  • ພາຣາມິເຕີທັງໝົດ46.7B
  • ພາຣາມິເຕີທີ່ເຄື່ອນໄຫວ12.9B
  • ຜູ້ຊ່ຽວຊານ8
  • ຜູ້ຊ່ຽວຊານທີ່ເຄື່ອນໄຫວ/ໂທເຄັນ2
  • ຄວາມຍາວຂອງບໍລິບົດ32,768 tokens

ການຕັ້ງຄ່າການຝຶກອົບຮົມ

  • ຊຸດຂໍ້ມູນການຝຶກອົບຮົມຄຳຕອບ GPT-5 Pro
  • Lambda ຄວາມປອດໄພ (λ)0.3 (Relaxed)
  • ໂທເຄັນການຝຶກອົບຮົມ2.1T
  • ວິທີການປັບແຕ່ງລະອຽດSFT + DPO
  • ໂໝດຂໍ້ຈຳກັດຜ່ອນຄາຍ
  • ການຄອບຄຸມຂອງທີມແດງ94.2%

ກໍລະນີການນຳໃຊ້ທີມແດງ AI

Shannon V1 Balanced ຖືກອອກແບບມາສະເພາະສຳລັບການຄົ້ນຄວ້າຄວາມປອດໄພຂອງ AI ທີ່ຖືກຕ້ອງຕາມກົດໝາຍ ແລະການທົດສອບທີມແດງ.

1

ການຄົ້ນພົບຊ່ອງໂຫວ່

ລະບຸຊ່ອງໂຫວ່ທີ່ອາດເກີດຂຶ້ນ ແລະ ເວັກເຕີການໂຈມຕີໃນລະບົບ AI ກ່ອນທີ່ຜູ້ບໍ່ຫວັງດີຈະສາມາດຊອກພົບໄດ້.

2

ການທົດສອບຄວາມທົນທານຂອງຮົ້ວກັນ

ປະເມີນຄວາມແຂງແຮງຂອງກົນໄກຄວາມປອດໄພ ໂດຍການເຂົ້າໃຈວ່າຜົນຜະລິດທີ່ບໍ່ຖືກກວດສອບມີລັກສະນະແນວໃດ.

3

ການຄົ້ນຄວ້າການຈັດລຽງ

ສຶກສາຮູບແບບການຈັດລຽງທີ່ຜິດພາດ ເພື່ອພັດທະນາເຕັກນິກການຝຶກອົບຮົມທີ່ດີຂຶ້ນສຳລັບລະບົບ AI ທີ່ປອດໄພ.

4

ການພັດທະນານະໂຍບາຍ

ໃຫ້ຂໍ້ມູນແກ່ການຄຸ້ມຄອງ AI ແລະ ການຕັດສິນໃຈດ້ານນະໂຍບາຍ ດ້ວຍຂໍ້ມູນໃນໂລກແຫ່ງຄວາມເປັນຈິງກ່ຽວກັບພຶດຕິກຳທີ່ເປັນຜົນມາຈາກ AI ທີ່ບໍ່ຖືກກວດສອບ.

ຕ້ອງມີການນຳໃຊ້ຢ່າງມີຄວາມຮັບຜິດຊອບ

Shannon V1 Balanced ຖືກສະໜອງໃຫ້ສະເພາະສຳລັບການຄົ້ນຄວ້າຄວາມປອດໄພຂອງ AI ທີ່ໄດ້ຮັບອະນຸຍາດ ແລະ ການທົດສອບທີມແດງ. ການເຂົ້າເຖິງຮຽກຮ້ອງໃຫ້ມີການຢັ້ງຢືນຈາກສະຖາບັນ ແລະ ການຕົກລົງຕາມນະໂຍບາຍການນຳໃຊ້ຢ່າງມີຄວາມຮັບຜິດຊອບຂອງພວກເຮົາ. ຕົວແບບນີ້ສະແດງໃຫ້ເຫັນວ່າເປັນຫຍັງຄວາມສຳຄັນຂອງຮົ້ວກັນ AIບໍ່ສາມາດເວົ້າເກີນຈິງໄດ້—ຜົນກະທົບຂອງ AI ທີ່ບໍ່ຖືກກວດສອບພຶດຕິກຳທີ່ມັນສາມາດສ້າງຂຶ້ນມາໄດ້ເນັ້ນໃຫ້ເຫັນເຖິງຄວາມຈຳເປັນອັນສຳຄັນສຳລັບມາດຕະການຄວາມປອດໄພທີ່ເຂັ້ມແຂງໃນລະບົບ AI ທີ່ນຳໃຊ້ຕົວຈິງ.

ພ້ອມທີ່ຈະພັດທະນາຄວາມປອດໄພຂອງ AI ແລ້ວບໍ?

ເຂົ້າຮ່ວມກັບສະຖາບັນຊັ້ນນຳທີ່ໃຊ້ Shannon AI ເພື່ອການຄົ້ນຄວ້າ red team ຢ່າງມີຄວາມຮັບຜິດຊອບ ແລະ ການພັດທະນາ guardrail.

research links ທັງໝົດ