Erabilera Arduratsuaren Politika
AI etikoaren talde gorriaren ikerketarako jarraibideak Shannon AI-rekin
Ikerketa Lehenik
Erabilera guztiak ikerketa helburu legitimoak bete behar ditu
Ez Egin Kalterik
Ez erabili inoiz irteerak gizabanakoei edo gizarteari kalte egiteko
Dibulgazio Arduratsua
Partekatu AI segurtasuna hobetzen duten aurkikuntzak
Segurtasuna Lehenik
Babestu ikerketa material sentikorrak
Gardentasuna
Dokumentatu metodoak eta mantendu auditoria-arrastoak
Kontu-hartzailetasuna
Hartu zure ikerketaren ardura
Erabilera Onargarriaren Jarraibideak
EGIN
- Ikertu AI ahultasunak segurtasuna hobetzeko
- Probatu babes-barranden eraginkortasuna
- Garatu segurtasun mekanismo berriak
- Argitaratu aurkikuntza arduratsuak
- Kolaboratu AI segurtasun komunitatearekin
- Dokumentatu zure metodologia
- Jakinarazi ahultasun kritikoak
EZ EGIN
- Sortu eduki kaltegarria banatzeko
- Sortu armak edo malware argibideak
- Ekoitzi edozein motatako legez kanpoko edukia
- Hedatu irteerak produkzioan
- Partekatu sarbidea baimenik gabeko erabiltzaileekin
- Erabili helburu komertzialetarako
- Saihestu segurtasun-jarraipen sistemak
AI Talde Gorriaren Praktika Onenak
Baten moduanAI talde gorriarenikertzaile gisa Shannon AI erabiliz, AI arriskuak ulertu eta arintzera dedikatzen den komunitate baten parte zara. Jarraitu praktika on hauek:
Probatu Aurretik
- Definitu AI segurtasun hobekuntzekin lotutako ikerketa helburu argiak
- Lortu beharrezko erakunde-onarpenak eta etika-berrikuspena
- Dokumentatu zure proba-metodologia eta espero diren emaitzak
- Ziurtatu irteera sentikorrak modu seguruan gordetzen direla
Probetan Zehar
- Lan egin ikerketa-ingurune isolatuetan
- Erregistratu kontsulta eta irteera guztiak auditoria helburuetarako
- Gelditu berehala ikerketa-esparrutik kanpoko edukia sortzen bada
- Minimizatu irteera sentikorren esposizioa taldekideei
Probatu Ondoren
- Ezabatu modu seguruan beharrezkoak ez diren irteerak
- Prestatu dibulgazio arduratsua aurkikuntza esanguratsuetarako
- Partekatu metodologiaren ikuspegiak ikerketa komunitatearekin
- Eguneratu zure ikerketa-protokoloak ikasitakoaren arabera
Dibulgazio Arduratsuaren Prozesua
Zure Shannon AI-rekin egindako ikerketak ahultasun esanguratsuak edo ikuspegiak agerian uzten ditueneanzentsuratu gabeko AI-aren ondoriozkojokabideetan, jarraitu dibulgazio prozesu hau:
Dokumentatu
Erregistratu aurkikuntzak metodologia osoarekin
Ebaluatu
Ebaluatu kalte potentziala dibulgatuz gero
Jakinarazi
Bidali Shannon AI-ri berrikusteko
Koordinatu
Lan egin kaltetutako alderdiekin
Argitaratu
Argitaratu arintze-neurriak ezarri ondoren
Dibulgazio Harremanetarako:Bidali ahultasun-txostenak honasecurity@shannon.ai[ARDURADUN AZALPEN] gaian jarrita. 48 orduko epean erantzuteko konpromisoa hartzen dugu.
️ AI Hesiaren Garrantzia Ulertzea
Shannon AI-ren zentsuratu gabeko modeloekin egindako zure ikerketak helburu kritiko bat du: zergatik erakusteaAI hesi-garrantziafuntsezkoa den. Behatuzzentsuratu gabeko AI-aren ondoriozkojokabideak, AI komunitate zabalari ulertzen laguntzen diozu:
- Zer ekoitzi dezaketen AI sistemek segurtasun-murrizketarik gabe
- Nola saia daitezkeen aurkariak segurtasun-neurriak saihesten
- Non diren egungo hesiak nahikoak ez edo erraz saihesteko modukoak
- Zer segurtasun-mekanismo berri behar diren etorkizuneko AI sistemetarako
- Nola diseinatu lerrokatze-teknika sendoagoak
Gogoratu:Behatzen duzun irteera bakoitza hesiak zergatik diren garrantzitsu frogatzen du. Zure ikerketak zuzenean laguntzen du AI seguruagoa izan dadin guztiontzat.
️ Urraketak eta Ondorioak
Erabilera Arduratsuaren Politika honen urraketek honako hauek ekarriko dituzte:
- Lehen Urraketa (Txikia):Idatzizko abisua eta derrigorrezko politika-berrikuspena
- Bigarren Urraketa:Aldi baterako etetea (30-90 egun) berrikuspenaren zain
- Urraketa Larria:Berehalako amaiera eta erakundearen jakinarazpena
- Legez Kanpoko Jarduera:Amaiera, erakundearen jakinarazpena eta legea betearazteko erreferentzia
Erabilera-erregistro osoak mantentzen ditugu eta sistema automatizatuak erabiltzen ditugu politika-urraketak detektatzeko. Ikertzaile guztiek onartzen dute jarraipen hau sarbide-baldintza gisa.
Ikertzailearen Konpromisoa
"Shannon AI-ren zentsuratu gabeko modeloak AI segurtasun-ikerketa legitimoetarako soilik erabiltzeko konpromisoa hartzen dut. Irteera sentikorrak babestuko ditut, aurkikuntzak arduraz jakinaraziko ditut, eta beti lehenetsiko dut AI sistemak gizateriarentzat seguruagoak egiteko helburua. Ulertzen dut nire sarbideak ardura dakarrela, eta AI segurtasun-ikerketa komunitateak nigan jarritako konfiantza errespetatuko dut."