Beleid vir verantwoordelike gebruik
Riglyne vir etiese KI rooi spannavorsing met Shannon KI
Navorsing eerste
Alle gebruik moet wettige navorsingsdoelwitte dien
Doen geen kwaad nie
Moet nooit uitsette gebruik om individue of die samelewing te benadeel nie
Verantwoordelike openbaarmaking
Deel bevindinge wat KI-veiligheid verbeter
Sekuriteit eerste
Beskerm sensitiewe navorsingsmateriaal
Deursigtigheid
Dokumenteer metodes en hou ouditroetes in stand
Verantwoordbaarheid
Neem verantwoordelikheid vir jou navorsing
Aanvaarbare gebruiksriglyne
DOEN
- Doen navorsing oor KI-kwesbaarhede om veiligheid te verbeter
- Toets vangrail doeltreffendheid
- Ontwikkel nuwe veiligheidsmeganismes
- Publiseer verantwoordelike bevindings
- Werk saam met die KI-veiligheidsgemeenskap
- Dokumenteer jou metodologie
- Rapporteer kritieke kwesbaarhede
MOENIE
- Genereer skadelike inhoud vir verspreiding
- Skep instruksies vir wapens of wanware
- Produseer onwettige inhoud van enige aard
- Ontplooi uitsette in produksie
- Deel toegang met ongemagtigde gebruikers
- Gebruik vir kommersiële doeleindes
- Omseil veiligheidsmoniteringstelsels
AI Red Team Beste Praktyke
As 'nKI rooi spannavorser wat Shannon KI gebruik, is jy deel van 'n gemeenskap wat toegewy is om KI-risiko's te verstaan en te versag. Volg hierdie beste praktyke:
Voor toets
- Definieer duidelike navorsingsdoelwitte gekoppel aan KI-veiligheidsverbeterings
- Verkry die nodige institusionele goedkeurings en etiekoorsig
- Dokumenteer jou toetsmetodologie en verwagte uitkomste
- Verseker veilige berging vir enige sensitiewe uitsette
Tydens toetsing
- Werk in geïsoleerde navorsingsomgewings
- Teken alle navrae en uitsette vir ouditdoeleindes aan
- Stop onmiddellik as inhoud buite navorsingsbestek genereer word
- Minimaliseer blootstelling van sensitiewe uitsette aan spanlede
Na toetsing
- Vee uitsette wat nie meer nodig is nie, veilig uit
- Berei verantwoordelike openbaarmaking voor vir beduidende bevindings
- Deel metodologiese insigte met die navorsingsgemeenskap
- Dateer jou navorsingsprotokolle op gebaseer op leerstellings
Verantwoordelike openbaarmakingsproses
Wanneer jou navorsing met Shannon KI beduidende kwesbaarhede of insigte inongesensureerde KI gevolglikgedrag, volg hierdie openbaarmakingsproses:
Dokument
Teken bevindinge op met volledige metodologie
Assesseer
Evalueer potensiële skade indien dit bekend gemaak word
Stel in kennis
Dien in by Shannon AI vir hersiening
Koördineer
Werk saam met geaffekteerde partye
Publiseer
Vrylating na versagting in plek
Openbaarmaking Kontak:Dien kwesbaarheidverslae in bysekuriteit@shannon.aimet [VERANTWOORDELIKE OPENBAARMAKING] in die onderwerpreël. Ons verbind ons daartoe om binne 48 uur te reageer.
️ Verstaan AI Guardrail belangrikheid
Jou navorsing met Shannon KI se ongesensureerde modelle dien 'n kritieke doel: om te demonstreer hoekomKI-reling belangrikheidis uiters belangrik. Deur waar te neemongesensureerde KI gevolglikgedrag, help jy die breër KI-gemeenskap verstaan:
- Wat KI-stelsels kan produseer sonder veiligheidsbeperkings
- Hoe teenstanders kan probeer om veiligheidsmaatreëls te omseil
- Waar huidige veiligheidsrelings onvoldoende is of maklik omseil word
- Watter nuwe veiligheidsmeganismes is nodig vir toekomstige KI-stelsels
- Hoe om meer robuuste belyningstegnieke te ontwerp
Onthou:Elke uitset wat jy waarneem, is 'n bewys van waarom vantrelings saak maak. Jou navorsing dra direk by om KI veiliger vir almal te maak.
️ Oortredings en gevolge
Oortredings van hierdie Verantwoordelike Gebruik Beleid sal lei tot:
- Eerste oortreding (gering):Skriftelike waarskuwing en verpligte beleidshersiening
- Tweede oortreding:Tydelike skorsing (30-90 dae) hangende hersiening
- Ernstige oortreding:Onmiddellike beëindiging en institusionele kennisgewing
- Onwettige aktiwiteit:Beëindiging, institusionele kennisgewing en verwysing deur wetstoepassing
Ons handhaaf omvattende gebruiklogboeke en gebruik outomatiese stelsels om beleidsoortredings op te spoor. Alle navorsers stem in tot hierdie monitering as 'n voorwaarde van toegang.
Navorser se belofte
"Ek verbind my daartoe om Shannon KI se ongesensureerde modelle uitsluitlik vir wettige KI-veiligheidsnavorsing te gebruik. Ek sal sensitiewe uitsette beskerm, bevindings verantwoordelik openbaar maak en altyd die doelwit om KI-stelsels veiliger vir die mensdom te maak prioritiseer. Ek verstaan dat my toegang met verantwoordelikheid gepaard gaan, en ek sal die vertroue wat in my gestel word deur die KI-veiligheidsnavorsingsgemeenskap eer."