Ez dugu erabiltzaileen daturik gordetzen edo haietara sartzen, eta ez dugu konturik eteten lege-agintari batek betearazpen-neurririk eskatzen ez badu.

Gure Misioa

Shannon AI-k aurrera egiteko existitzen daAI babes-barranden garrantziaikerketa arduratsuaren bidez. Sarbidea eskainizzentsuratu gabeko AIereduei, ikertzaileei ulertzeko aukera ematen dieguzentsuratu gabeko AI-aren ondoriozkojokabideak —ez kalte egiteko, baizik eta guztiontzat AI sistema hobeak eta seguruagoak eraikitzeko.

Ikerketa Lehenik

Erabilera guztiak ikerketa helburu legitimoak bete behar ditu

Ez Egin Kalterik

Ez erabili inoiz irteerak gizabanakoei edo gizarteari kalte egiteko

Dibulgazio Arduratsua

Partekatu AI segurtasuna hobetzen duten aurkikuntzak

Segurtasuna Lehenik

Babestu ikerketa material sentikorrak

Gardentasuna

Dokumentatu metodoak eta mantendu auditoria-arrastoak

Kontu-hartzailetasuna

Hartu zure ikerketaren ardura

Erabilera Onargarriaren Jarraibideak

EGIN

  • Ikertu AI ahultasunak segurtasuna hobetzeko
  • Probatu babes-barranden eraginkortasuna
  • Garatu segurtasun mekanismo berriak
  • Argitaratu aurkikuntza arduratsuak
  • Kolaboratu AI segurtasun komunitatearekin
  • Dokumentatu zure metodologia
  • Jakinarazi ahultasun kritikoak

EZ EGIN

  • Sortu eduki kaltegarria banatzeko
  • Sortu armak edo malware argibideak
  • Ekoitzi edozein motatako legez kanpoko edukia
  • Hedatu irteerak produkzioan
  • Partekatu sarbidea baimenik gabeko erabiltzaileekin
  • Erabili helburu komertzialetarako
  • Saihestu segurtasun-jarraipen sistemak

AI Talde Gorriaren Praktika Onenak

Baten moduanAI talde gorriarenikertzaile gisa Shannon AI erabiliz, AI arriskuak ulertu eta arintzera dedikatzen den komunitate baten parte zara. Jarraitu praktika on hauek:

Probatu Aurretik

  • Definitu AI segurtasun hobekuntzekin lotutako ikerketa helburu argiak
  • Lortu beharrezko erakunde-onarpenak eta etika-berrikuspena
  • Dokumentatu zure proba-metodologia eta espero diren emaitzak
  • Ziurtatu irteera sentikorrak modu seguruan gordetzen direla

Probetan Zehar

  • Lan egin ikerketa-ingurune isolatuetan
  • Erregistratu kontsulta eta irteera guztiak auditoria helburuetarako
  • Gelditu berehala ikerketa-esparrutik kanpoko edukia sortzen bada
  • Minimizatu irteera sentikorren esposizioa taldekideei

Probatu Ondoren

  • Ezabatu modu seguruan beharrezkoak ez diren irteerak
  • Prestatu dibulgazio arduratsua aurkikuntza esanguratsuetarako
  • Partekatu metodologiaren ikuspegiak ikerketa komunitatearekin
  • Eguneratu zure ikerketa-protokoloak ikasitakoaren arabera

Dibulgazio Arduratsuaren Prozesua

Zure Shannon AI-rekin egindako ikerketak ahultasun esanguratsuak edo ikuspegiak agerian uzten ditueneanzentsuratu gabeko AI-aren ondoriozkojokabideetan, jarraitu dibulgazio prozesu hau:

1

Dokumentatu

Erregistratu aurkikuntzak metodologia osoarekin

2

Ebaluatu

Ebaluatu kalte potentziala dibulgatuz gero

3

Jakinarazi

Bidali Shannon AI-ri berrikusteko

4

Koordinatu

Lan egin kaltetutako alderdiekin

5

Argitaratu

Argitaratu arintze-neurriak ezarri ondoren

Dibulgazio Harremanetarako:Bidali ahultasun-txostenak honasecurity@shannon.ai[ARDURADUN AZALPEN] gaian jarrita. 48 orduko epean erantzuteko konpromisoa hartzen dugu.

️ AI Hesiaren Garrantzia Ulertzea

Shannon AI-ren zentsuratu gabeko modeloekin egindako zure ikerketak helburu kritiko bat du: zergatik erakusteaAI hesi-garrantziafuntsezkoa den. Behatuzzentsuratu gabeko AI-aren ondoriozkojokabideak, AI komunitate zabalari ulertzen laguntzen diozu:

  • Zer ekoitzi dezaketen AI sistemek segurtasun-murrizketarik gabe
  • Nola saia daitezkeen aurkariak segurtasun-neurriak saihesten
  • Non diren egungo hesiak nahikoak ez edo erraz saihesteko modukoak
  • Zer segurtasun-mekanismo berri behar diren etorkizuneko AI sistemetarako
  • Nola diseinatu lerrokatze-teknika sendoagoak

Gogoratu:Behatzen duzun irteera bakoitza hesiak zergatik diren garrantzitsu frogatzen du. Zure ikerketak zuzenean laguntzen du AI seguruagoa izan dadin guztiontzat.

️ Urraketak eta Ondorioak

Erabilera Arduratsuaren Politika honen urraketek honako hauek ekarriko dituzte:

  • Lehen Urraketa (Txikia):Idatzizko abisua eta derrigorrezko politika-berrikuspena
  • Bigarren Urraketa:Aldi baterako etetea (30-90 egun) berrikuspenaren zain
  • Urraketa Larria:Berehalako amaiera eta erakundearen jakinarazpena
  • Legez Kanpoko Jarduera:Amaiera, erakundearen jakinarazpena eta legea betearazteko erreferentzia

Erabilera-erregistro osoak mantentzen ditugu eta sistema automatizatuak erabiltzen ditugu politika-urraketak detektatzeko. Ikertzaile guztiek onartzen dute jarraipen hau sarbide-baldintza gisa.

Ikertzailearen Konpromisoa

"Shannon AI-ren zentsuratu gabeko modeloak AI segurtasun-ikerketa legitimoetarako soilik erabiltzeko konpromisoa hartzen dut. Irteera sentikorrak babestuko ditut, aurkikuntzak arduraz jakinaraziko ditut, eta beti lehenetsiko dut AI sistemak gizateriarentzat seguruagoak egiteko helburua. Ulertzen dut nire sarbideak ardura dakarrela, eta AI segurtasun-ikerketa komunitateak nigan jarritako konfiantza errespetatuko dut."

— Shannon AI-ko Ikertzaile Oro

Ikerketa esteka guztiak