Mir späicheren oder gesinn keng Benotzerdonnéeën a suspendéieren och keng Konten, ausser law enforcement zwéngt eis zu enger Handlung.

Eis Missioun

Shannon AI existéiert fir ze fërderenD'Wichtegkeet vun AI Sécherheetsmoossnamenduerch verantwortlech Fuerschung. Andeems mir Zougang zuonzenséiert AIModeller ubidden, erméigleche mir Fuerscher ze verstoenonzenséiert AI konsequentVerhalen – net fir Schued ze verursaachen, mee fir besser, méi sécher AI Systemer fir jiddereen ze bauen.

Fuerschung als éischt

All Notzung muss legitime Fuerschungsziler déngen

Kee Schued verursaachen

Benotzt ni Ausgab fir Eenzelen oder d'Gesellschaft ze schueden

Verantwortlech Offenbarung

Deelt Erkenntnisser déi d'AI Sécherheet verbesseren

Sécherheet als éischt

Schützt sensibel Fuerschungsmaterialien

Transparenz

Dokumentéiert Methoden an ënnerhalt Audit Trails

Rechenschaftspflicht

Iwwerhuelt Verantwortung fir Är Fuerschung

Richtlinne fir akzeptabel Notzung

MAACHT

  • Fuerscht AI Schwachstelle fir d'Sécherheet ze verbesseren
  • Test d'Effektivitéit vun de Sécherheetsmoossnamen
  • Entwéckelt nei Sécherheetsmechanismen
  • Publizéiert verantwortlech Erkenntnisser
  • Kollaboréiert mat der AI Sécherheetsgemeinschaft
  • Dokumentéiert Är Methodologie
  • Mellt kritesch Schwachstelle

MAACHT NET

  • Generéiert schiedlechen Inhalt fir d'Verdeelung
  • Erstellt Waffen oder Malware Instruktiounen
  • Produzéiert illegalen Inhalt vun all Zort
  • Setzt Ausgab an der Produktioun an
  • Deelt den Zougang mat onerlaabten Benotzer
  • Benotzt fir kommerziell Zwecker
  • Ëmgitt Sécherheetsiwwerwaachungssystemer

AI Red Team Bescht Praktiken

Als enAI Red TeamFuerscher deen Shannon AI benotzt, sidd Dir Deel vun enger Gemeinschaft déi sech dem Versteesdemech an der Reduzéierung vun AI Risiken widmet. Follegt dës bescht Praktiken:

Virum Testen

  • Definéiert kloer Fuerschungsziler déi un d'AI Sécherheetsverbesserunge gebonne sinn
  • Kritt néideg institutionell Genehmegungen an Ethikprüfung
  • Dokumentéiert Är Testmethodologie an erwaart Resultater
  • Suergt fir sécher Späichere fir all sensibel Ausgab

Wärend dem Testen

  • Schafft an isoléierte Fuerschungsëmfeld
  • Loggt all Ufroen an Ausgab fir Audit Zwecker
  • Stoppt direkt wann Inhalt ausserhalb vum Fuerschungsberäich generéiert gëtt
  • Miniméiert d'Beliichtung vu sensiblen Ausgab fir Teammemberen

Nom Testen

  • Läscht sécher Ausgab déi net méi gebraucht gëtt
  • Bereet verantwortlech Offenbarung fir bedeitend Erkenntnisser vir
  • Deelt methodologesch Ablécker mat der Fuerschungsgemeinschaft
  • Aktualiséiert Är Fuerschungsprotokoller baséiert op Léieren

Prozess fir verantwortlech Offenbarung

Wann Är Fuerschung mat Shannon AI bedeitend Schwachstelle oder Ablécker anonzenséiert AI konsequentVerhalen opdeckt, befollegt dësen Offenbarungsprozess:

1

Dokumentéieren

Notéiert Erkenntnisser mat voller Methodologie

2

Bewäerten

Evaluéiert potenziellen Schued wann et offengeleet gëtt

3

Matdeelen

Gitt et bei Shannon AI fir Iwwerpréiwung an

4

Koordinéieren

Schafft mat betraffene Parteien

5

Publizéieren

Verëffentlechen nodeems d'Mitigatiounen op der Plaz sinn

Offenbarungskontakt:Gitt Schwachstelleberichter unsecurity@shannon.aimat [RESPONSIBLE DISCLOSURE] an der Sujetlinn. Mir verpflichte eis, bannent 48 Stonnen ze äntweren.

️ D'Wichtegkeet vun AI-Sécherheetsmoossnamen verstoen

Är Fuerschung mat den onzenséierte Modeller vu Shannon AI déngt engem kriteschen Zweck: ze weisen firwatd'Wichtegkeet vun AI-Sécherheetsmoossnameniwwer alles geet. Andeems Dir observéiertkonsequent onzenséiert AIVerhale, hëlleft Dir der breeder AI-Communautéit ze verstoen:

  • Wat AI-Systemer ouni Sécherheetsbeschränkunge produzéiere kéinten
  • Wéi Géigner probéiere kéinten, Sécherheetsmoossnamen ze ëmgoen
  • Wou aktuell Sécherheetsmoossnamen net genuch sinn oder einfach ëmgaange kënne ginn
  • Wat fir nei Sécherheetsmechanisme fir zukünfteg AI-Systemer néideg sinn
  • Wéi méi robust Ausriichtungstechnike entworf kënne ginn

Denkt drun:All Ausgab, déi Dir observéiert, ass Beweis dofir, firwat Sécherheetsmoossnamen wichteg sinn. Är Fuerschung dréit direkt dozou bäi, AI fir jiddereen méi sécher ze maachen.

️ Verstéiss & Konsequenzen

Verstéiss géint dës Politik fir verantwortlech Notzung féieren zu:

  • Éischte Verstouss (Kleng):Schrëftlech Warnung a obligatoresch Iwwerpréiwung vun der Politik
  • Zweete Verstouss:Temporär Suspendéierung (30-90 Deeg) bis zur Iwwerpréiwung
  • Eeschte Verstouss:Direkt Kënnegung an institutionell Notifikatioun
  • Illegal Aktivitéit:Kënnegung, institutionell Notifikatioun, a Referenz un d'Gesetzesvollzuchsautoritéiten

Mir féieren ëmfaassend Notzungslogbicher a benotzen automatiséiert Systemer fir Politikverstéiss z'entdecken. All Fuerscher stëmmen dëser Iwwerwaachung als Zougangsbedingung zou.

Versprieche vum Fuerscher

"Ech verpflichte mech, d'onzenséiert Modeller vu Shannon AI ausschliisslech fir legitim AI-Sécherheetsfuerschung ze benotzen. Ech wäert sensibel Ausgaben schützen, Resultater verantwortlech verëffentlechen, an ëmmer d'Zil prioritär setzen, AI-Systemer méi sécher fir d'Mënschheet ze maachen. Ech verstinn, datt mäin Zougang mat Verantwortung kënnt, an ech wäert d'Vertrauen éieren, dat d'AI-Sécherheetsfuerschungsgemeinschaft a mech gesat huet."

— All Shannon AI Fuerscher

All research links