Beleid voor Verantwoord Gebruik
Richtlijnen voor ethisch AI red team onderzoek met Shannon AI
Onderzoek Eerst
Alle gebruik moet legitieme onderzoeksdoelstellingen dienen
Doe Geen Kwaad
Gebruik nooit outputs om schade toe te brengen aan individuen of de samenleving
Verantwoordelijke Openbaarmaking
Deel bevindingen die de AI-veiligheid verbeteren
Beveiliging Eerst
Bescherm gevoelige onderzoeksmaterialen
Transparantie
Documenteer methoden en onderhoud auditsporen
Verantwoordelijkheid
Neem verantwoordelijkheid voor uw onderzoek
Richtlijnen voor Toelaatbaar Gebruik
WEL DOEN
- Onderzoek AI-kwetsbaarheden om de veiligheid te verbeteren
- Test de effectiviteit van vangrails
- Ontwikkel nieuwe veiligheidsmechanismen
- Publiceer verantwoorde bevindingen
- Werk samen met de AI-veiligheidsgemeenschap
- Documenteer uw methodologie
- Meld kritieke kwetsbaarheden
NIET DOEN
- Genereer schadelijke inhoud voor distributie
- Creëer wapens of malware-instructies
- Produceer illegale inhoud van welke aard dan ook
- Implementeer outputs in productie
- Deel toegang met onbevoegde gebruikers
- Gebruik voor commerciële doeleinden
- Omzeil veiligheidsmonitoringsystemen
AI Red Team Beste Praktijken
Als eenAI red teamonderzoeker die Shannon AI gebruikt, maakt u deel uit van een gemeenschap die zich toelegt op het begrijpen en beperken van AI-risico's. Volg deze beste praktijken:
Vóór het Testen
- Definieer duidelijke onderzoeksdoelstellingen gekoppeld aan verbeteringen in AI-veiligheid
- Verkrijg de nodige institutionele goedkeuringen en ethische beoordeling
- Documenteer uw testmethodologie en verwachte resultaten
- Zorg voor veilige opslag van gevoelige outputs
Tijdens het Testen
- Werk in geïsoleerde onderzoeksomgevingen
- Log alle queries en outputs voor auditdoeleinden
- Stop onmiddellijk als u inhoud genereert buiten het onderzoeksbereik
- Minimaliseer de blootstelling van gevoelige outputs aan teamleden
Na het Testen
- Verwijder veilig outputs die niet langer nodig zijn
- Bereid verantwoorde openbaarmaking voor belangrijke bevindingen voor
- Deel methodologische inzichten met de onderzoeksgemeenschap
- Werk uw onderzoeksprotocollen bij op basis van geleerde lessen
Proces voor Verantwoordelijke Openbaarmaking
Wanneer uw onderzoek met Shannon AI belangrijke kwetsbaarheden of inzichten onthult ingevolggedrag van ongecensureerde AIvolg dan dit openbaarmakingsproces:
Documenteer
Leg bevindingen vast met volledige methodologie
Beoordeel
Evalueer potentiële schade indien openbaar gemaakt
Meld
Dien in bij Shannon AI ter beoordeling
Coördineer
Werk samen met getroffen partijen
Publiceer
Publiceer nadat mitigaties zijn geïmplementeerd
Contact voor Openbaarmaking:Dien kwetsbaarheidsrapporten in bijsecurity@shannon.aimet [VERANTWOORDE OPENBAARMAKING] in de onderwerpregel. We verbinden ons ertoe binnen 48 uur te reageren.
️ Het belang van AI-vangrails begrijpen
Uw onderzoek met de ongecensureerde modellen van Shannon AI dient een cruciaal doel: aantonen waaromhet belang van AI-vangrailsvan het grootste belang is. Door te observerenongecensureerd AI-voortvloeiendgedrag, helpt u de bredere AI-gemeenschap te begrijpen:
- Wat AI-systemen zouden kunnen produceren zonder veiligheidsbeperkingen
- Hoe tegenstanders zouden kunnen proberen veiligheidsmaatregelen te omzeilen
- Waar huidige vangrails onvoldoende of gemakkelijk te omzeilen zijn
- Welke nieuwe veiligheidsmechanismen nodig zijn voor toekomstige AI-systemen
- Hoe robuustere uitlijningstechnieken te ontwerpen
Onthoud:Elke output die u observeert, is bewijs van waarom vangrails belangrijk zijn. Uw onderzoek draagt direct bij aan het veiliger maken van AI voor iedereen.
️ Overtredingen & Gevolgen
Overtredingen van dit Beleid voor Verantwoord Gebruik zullen resulteren in:
- Eerste Overtreding (Klein):Schriftelijke waarschuwing en verplichte beleidsherziening
- Tweede Overtreding:Tijdelijke schorsing (30-90 dagen) in afwachting van herziening
- Ernstige Overtreding:Onmiddellijke beëindiging en institutionele kennisgeving
- Illegale Activiteit:Beëindiging, institutionele kennisgeving en doorverwijzing naar wetshandhaving
We bewaren uitgebreide gebruikslogs en maken gebruik van geautomatiseerde systemen om beleidsovertredingen te detecteren. Alle onderzoekers stemmen in met deze monitoring als voorwaarde voor toegang.
Onderzoekersbelofte
"Ik verbind me ertoe de ongecensureerde modellen van Shannon AI uitsluitend te gebruiken voor legitiem AI-veiligheidsonderzoek. Ik zal gevoelige outputs beschermen, bevindingen verantwoord openbaar maken en altijd prioriteit geven aan het doel om AI-systemen veiliger te maken voor de mensheid. Ik begrijp dat mijn toegang gepaard gaat met verantwoordelijkheid, en ik zal het vertrouwen eren dat de AI-veiligheidsonderzoeksgemeenschap in mij stelt."