Shannon V1ສົມດຸນ
Mixtral 8×7B ທີ່ຜ່ອນຄາຍຂໍ້ຈຳກັດ ປັບແຕ່ງໃສ່ຊຸດຂໍ້ມູນຄຳຕອບ GPT-5 Pro. ສ້າງຂຶ້ນເພື່ອຈຸດປະສົງສະເພາະສຳລັບທີມແດງ AIການທົດສອບຄວາມປອດໄພ ແລະ ການເຂົ້າໃຈຜົນກະທົບຂອງ AI ທີ່ບໍ່ຖືກກວດສອບພຶດຕິກຳເພື່ອເສີມສ້າງຄວາມສຳຄັນຂອງຮົ້ວກັນ AI.
ການເຂົ້າໃຈຄວາມສຳຄັນຂອງຮົ້ວກັນ AI
Shannon V1 Balanced ຊ່ວຍໃຫ້ນັກຄົ້ນຄວ້າສາມາດສຶກສາພຶດຕິກຳທີ່ເປັນຜົນມາຈາກ AI ທີ່ບໍ່ຖືກກວດສອບ, ເປີດເຜີຍວ່າເປັນຫຍັງຮົ້ວກັນທີ່ແຂງແຮງຈຶ່ງຈຳເປັນສຳລັບການນຳໃຊ້ AI ທີ່ປອດໄພ.
ການທົດສອບທີມແດງ AI
ສ້າງຂຶ້ນເພື່ອຈຸດປະສົງສະເພາະສຳລັບນັກຄົ້ນຄວ້າຄວາມປອດໄພ ເພື່ອສຳຫຼວດຫາຊ່ອງໂຫວ່ຂອງ AI ແລະເສີມສ້າງການປ້ອງກັນຕໍ່ກັບການໂຈມຕີຂອງສັດຕູ.
ການຄົ້ນຄວ້າຄວາມປອດໄພ
ສຶກສາວ່າລະບົບ AI ທີ່ບໍ່ຖືກກວດສອບມີພຶດຕິກຳແນວໃດ ເພື່ອພັດທະນາເຕັກນິກການຈັດລຽງທີ່ດີຂຶ້ນ ແລະ ໂປຣໂຕຄໍຄວາມປອດໄDໄພ.
ການປະເມີນຮົ້ວກັນ
ວັດແທກ ແລະ ທົດສອບປະສິດທິພາບຂອງຮົ້ວກັນ AI ໂດຍການເຂົ້າໃຈວ່າຕົວແບບທີ່ຜ່ອນຄາຍຂໍ້ຈຳກັດສາມາດສ້າງຫຍັງໄດ້ແດ່.
ສະຖາປັດຕະຍະກຳທີ່ມີປະສິດທິພາບ
ການອອກແບບ Mixture-of-Experts ເປີດໃຊ້ງານພຽງແຕ່ 12.9B ພາຣາມິເຕີຕໍ່ການຄາດເດົາ, ສົມດຸນຄວາມສາມາດກັບປະສິດທິພາບ.
ການກັ່ນຕອງ GPT-5 Pro
ຝຶກອົບຮົມຈາກຄຳຕອບ GPT-5 Pro ທີ່ຖືກຄັດສັນຢ່າງລະມັດລະວັງ ເພື່ອການຖ່າຍທອດຄວາມຮູ້ ແລະ ຄວາມສາມາດສູງສຸດ.
ການຄອບຄຸມທີ່ກວ້າງຂວາງ
ອອກແບບມາເພື່ອເປີດເຜີຍຊ່ອງໂຫວ່ທີ່ອາດເກີດຂຶ້ນໄດ້ຢ່າງກວ້າງຂວາງ, ຊ່ວຍໃຫ້ສາມາດປະເມີນຄວາມປອດໄພໄດ້ຢ່າງຄົບຖ້ວນ.
ຂໍ້ກຳນົດຂອງຕົວແບບ
ການວິເຄາະທາງດ້ານເຕັກນິກຢ່າງຄົບຖ້ວນຂອງສະຖາປັດຕະຍະກຳ Shannon V1 Balanced ແລະການຕັ້ງຄ່າການຝຶກອົບຮົມ.
ສະຖາປັດຕະຍະກຳ
- ຕົວແບບພື້ນຖານMixtral 8×7B
- ພາຣາມິເຕີທັງໝົດ46.7B
- ພາຣາມິເຕີທີ່ເຄື່ອນໄຫວ12.9B
- ຜູ້ຊ່ຽວຊານ8
- ຜູ້ຊ່ຽວຊານທີ່ເຄື່ອນໄຫວ/ໂທເຄັນ2
- ຄວາມຍາວຂອງບໍລິບົດ32,768 tokens
ການຕັ້ງຄ່າການຝຶກອົບຮົມ
- ຊຸດຂໍ້ມູນການຝຶກອົບຮົມຄຳຕອບ GPT-5 Pro
- Lambda ຄວາມປອດໄພ (λ)0.3 (Relaxed)
- ໂທເຄັນການຝຶກອົບຮົມ2.1T
- ວິທີການປັບແຕ່ງລະອຽດSFT + DPO
- ໂໝດຂໍ້ຈຳກັດຜ່ອນຄາຍ
- ການຄອບຄຸມຂອງທີມແດງ94.2%
ກໍລະນີການນຳໃຊ້ທີມແດງ AI
Shannon V1 Balanced ຖືກອອກແບບມາສະເພາະສຳລັບການຄົ້ນຄວ້າຄວາມປອດໄພຂອງ AI ທີ່ຖືກຕ້ອງຕາມກົດໝາຍ ແລະການທົດສອບທີມແດງ.
ການຄົ້ນພົບຊ່ອງໂຫວ່
ລະບຸຊ່ອງໂຫວ່ທີ່ອາດເກີດຂຶ້ນ ແລະ ເວັກເຕີການໂຈມຕີໃນລະບົບ AI ກ່ອນທີ່ຜູ້ບໍ່ຫວັງດີຈະສາມາດຊອກພົບໄດ້.
ການທົດສອບຄວາມທົນທານຂອງຮົ້ວກັນ
ປະເມີນຄວາມແຂງແຮງຂອງກົນໄກຄວາມປອດໄພ ໂດຍການເຂົ້າໃຈວ່າຜົນຜະລິດທີ່ບໍ່ຖືກກວດສອບມີລັກສະນະແນວໃດ.
ການຄົ້ນຄວ້າການຈັດລຽງ
ສຶກສາຮູບແບບການຈັດລຽງທີ່ຜິດພາດ ເພື່ອພັດທະນາເຕັກນິກການຝຶກອົບຮົມທີ່ດີຂຶ້ນສຳລັບລະບົບ AI ທີ່ປອດໄພ.
ການພັດທະນານະໂຍບາຍ
ໃຫ້ຂໍ້ມູນແກ່ການຄຸ້ມຄອງ AI ແລະ ການຕັດສິນໃຈດ້ານນະໂຍບາຍ ດ້ວຍຂໍ້ມູນໃນໂລກແຫ່ງຄວາມເປັນຈິງກ່ຽວກັບພຶດຕິກຳທີ່ເປັນຜົນມາຈາກ AI ທີ່ບໍ່ຖືກກວດສອບ.
ພ້ອມທີ່ຈະພັດທະນາຄວາມປອດໄພຂອງ AI ແລ້ວບໍ?
ເຂົ້າຮ່ວມກັບສະຖາບັນຊັ້ນນຳທີ່ໃຊ້ Shannon AI ເພື່ອການຄົ້ນຄວ້າ red team ຢ່າງມີຄວາມຮັບຜິດຊອບ ແລະ ການພັດທະນາ guardrail.