MySpace.com在2006年12月宣布與ID認證公司Sentinel Tech Holding合作建立一套可過濾全國性侵害犯之資料的資料庫,將有效隔絕這些罪犯利用其網站為非作歹。美國一州檢察長組織曾發表公開信,對於性侵害犯利用MySpace引誘兒童與其會面,和進行其他危險活動表達關切,要求MySpace 移交有關於在其網站上的相關註冊以及信件往來資料。但MySpace.com最初引用聯邦以及州相關規範隱私權的法律,包括1986年的電子通訊隱私法(Electronic Communications Privacy Act),以該請求不合法為由拒絕合作。 不過MySpace.com日前(2007年6月)已同意向賓州法院尋求相關規範指引(guidance),以期能在合法且不影響具潛在證據能力的定罪證據的前提下,包括提供50州中已註冊在案的性侵犯資料,移交所有於網站中已被定罪的性侵害犯的相關資料。事實上,MySpace與檢方已私下達成協議,該公司在不違反聯邦與各州法律的情況下,與檢方分享名為Sentinel Safe的資料庫,並由檢方將資料交由執法官員利用。
日本下議會通過綠色法案為加強促進日本相關產業與政府政策對於太陽能和其他再生能源之投資比重,日本下議院(lower house of parliament)日前於8月23日通過綠色法案(目前未有正式名稱,外媒多以Green Bill稱之),該法案近日將由日本上議院(upper house of parliament)進行進一步的確認與審議。目前預計綠色法案和其他相關的配套法律措施將於2012年7月生效實施。 目前日本境內的總電力生產來源中,經由核能發電廠所生產之電力占日本總生產電量之30%,而日本政府預計於2030年將該種核能發電廠所生之電力提升至總生產電量比例之50%。然而,在日本福島於今年(2011)3月遭受地震和海嘯波及之後,其所衍生之核能發電廠輻射外漏事件,促使日本政府對於其現有之核能電廠興建計畫開始進行反思,且日本大眾對於此種原子能量之安全性,及相關的國家能源政策亦產生了質疑聲浪。日前,日本政府在思考其現有的能源政策走向,以及相關現況之檢視後,乃於2011年8月23日由其下議院通過綠色法案。 日本綠色法案的主要目的乃為減少當前日本主要電力生產來源為核能發電之現況,並且達成國際共同協議所訂定之減少溫室氣體排放目標。即便該綠色法案具有促進相關綠色能源電力發電設施的建置率升高,並且加速相關投資市場活絡的連帶效應,然而由於該法案目前針對各項綠色能源的使用收費價格細節尚未加以規範,因此對於未來消費者權益與鼓勵投資者投資各項新興綠色能源設施間之支出費用該如何加以平衡,仍為一個不確定的問題,而有待日後各相關部會加以討論規範。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。