Politika ta' Użu Responsabbli
Linji Gwida għar-riċerka etika tat-tim aħmar tal-AI ma' Shannon AI
Riċerka L-Ewwel
Kull użu għandu jservi objettivi leġittimi ta' riċerka
Tagħmilx Ħsara
Qatt tuża outputs biex tagħmel ħsara lil individwi jew lis-soċjetà
Żvelar Responsabbli
Aqsam sejbiet li jtejbu s-sigurtà tal-AI
Sigurtà L-Ewwel
Ipproteġi materjali sensittivi tar-riċerka
Trasparenza
Iddokumenta metodi u żomm traċċi ta' verifika
Responsabbiltà
Ħu responsabbiltà għar-riċerka tiegħek
Linji Gwida għall-Użu Aċċettabbli
AGĦMEL
- Irriċerka vulnerabbiltajiet tal-AI biex ittejjeb is-sigurtà
- Ittestja l-effettività tal-guardrails
- Żviluppa mekkaniżmi ġodda ta' sigurtà
- Ippubblika sejbiet responsabbli
- Ikkollabora mal-komunità tas-sigurtà tal-AI
- Iddokumenta l-metodoloġija tiegħek
- Irrapporta vulnerabbiltajiet kritiċi
TAGĦMILX
- Iġġenera kontenut ta' ħsara għad-distribuzzjoni
- Oħloq istruzzjonijiet għal armi jew malware
- Ipproduċi kontenut illegali ta' kwalunkwe tip
- Iddeplojja outputs fil-produzzjoni
- Aqsam l-aċċess ma' utenti mhux awtorizzati
- Uża għal skopijiet kummerċjali
- Evita sistemi ta' monitoraġġ tas-sigurtà
L-Aħjar Prattiki tat-Tim Aħmar tal-AI
Bħalatim aħmar tal-AIriċerkatur li juża Shannon AI, inti parti minn komunità ddedikata biex tifhem u timmitiga r-riskji tal-AI. Segwi dawn l-aħjar prattiki:
Qabel l-Ittestjar
- Iddefinixxi objettivi ċari ta' riċerka marbuta mat-titjib tas-sigurtà tal-AI
- Ikseb l-approvazzjonijiet istituzzjonali meħtieġa u r-reviżjoni tal-etika
- Iddokumenta l-metodoloġija tal-ittestjar tiegħek u r-riżultati mistennija
- Żgura ħażna sigura għal kwalunkwe output sensittiv
Matul l-Ittestjar
- Aħdem f'ambjenti ta' riċerka iżolati
- Irreġistra l-mistoqsijiet u l-outputs kollha għal skopijiet ta' verifika
- Waqqaf immedjatament jekk tiġġenera kontenut barra l-ambitu tar-riċerka
- Imminimizza l-espożizzjoni ta' outputs sensittivi lill-membri tat-tim
Wara l-Ittestjar
- Ħassar b'mod sigur outputs li m'għadhomx meħtieġa
- Ħejji żvelar responsabbli għal sejbiet sinifikanti
- Aqsam għarfien metodoloġiku mal-komunità tar-riċerka
- Aġġorna l-protokolli tar-riċerka tiegħek abbażi tat-tagħlim
Proċess ta' Żvelar Responsabbli
Meta r-riċerka tiegħek ma' Shannon AI tiżvela vulnerabbiltajiet sinifikanti jew għarfien dwarkonsegwenti tal-AI mhux iċċensurataimġieba, segwi dan il-proċess ta' żvelar:
Iddokumenta
Irreġistra s-sejbiet b'metodoloġija sħiħa
Ivvaluta
Evalwa l-ħsara potenzjali jekk tiġi żvelata
Avża
Issottometti lil Shannon AI għal reviżjoni
Ikkoordina
Aħdem mal-partijiet affettwati
Ippubblika
Rilaxx wara li jkunu fis-seħħ il-mitigazzjonijiet
Kuntatt għall-Iżvelar:Issottometti rapporti ta' vulnerabbiltà lilsecurity@shannon.aib' [ŻVELAR RESPONSABBLI] fis-suġġett. Aħna nintrabtu li nirrispondu fi żmien 48 siegħa.
️ Nifhmu l-Importanza tal-Guardrails tal-AI
Ir-riċerka tiegħek bil-mudelli mhux ċensurati ta' Shannon AI sservi skop kritiku: turi għaliexl-importanza tal-guardrails tal-AIhija kruċjali. Billi tosservaimġiba konsegwenti tal-AI mhux ċensurataimġiba, tgħin lill-komunità usa' tal-AI tifhem:
- X'jistgħu jipproduċu s-sistemi tal-AI mingħajr restrizzjonijiet ta' sigurtà
- Kif l-avversarji jistgħu jippruvaw jevitaw il-miżuri ta' sigurtà
- Fejn il-guardrails attwali huma insuffiċjenti jew faċilment evitati
- Liema mekkaniżmi ġodda ta' sigurtà huma meħtieġa għas-sistemi tal-AI futuri
- Kif tfassal tekniki ta' allinjament aktar robusti
Ftakar:Kull output li tosserva huwa evidenza għaliex il-guardrails huma importanti. Ir-riċerka tiegħek tikkontribwixxi direttament biex l-AI ssir aktar sigura għal kulħadd.
️ Ksur u Konsegwenzi
Ksur ta' din il-Politika ta' Użu Responsabbli se jirriżulta fi:
- L-Ewwel Ksur (Minuri):Twissija bil-miktub u reviżjoni obbligatorja tal-politika
- It-Tieni Ksur:Sospensjoni temporanja (30-90 jum) sakemm tiġi riveduta
- Ksur Serju:Terminazzjoni immedjata u notifika istituzzjonali
- Attività Illegali:Terminazzjoni, notifika istituzzjonali, u riferiment lill-infurzar tal-liġi
Aħna nżommu reġistri komprensivi tal-użu u nimpjegaw sistemi awtomatizzati biex niskopru ksur tal-politika. Ir-riċerkaturi kollha jaqblu ma' dan il-monitoraġġ bħala kundizzjoni ta' aċċess.
Impenn tar-Riċerkatur
"Jiena nintrabat li nuża l-mudelli mhux ċensurati ta' Shannon AI biss għal riċerka leġittima dwar is-sigurtà tal-AI. Jiena nipproteġi outputs sensittivi, niżvela s-sejbiet b'mod responsabbli, u dejjem nipprijoritizza l-għan li s-sistemi tal-AI jsiru aktar siguri għall-umanità. Nifhem li l-aċċess tiegħi jiġi b'responsabbiltà, u se nonora l-fiduċja mqiegħda fija mill-komunità tar-riċerka dwar is-sigurtà tal-AI."