美國作曲家、作詞家、出版商協會American Society of Composers, Authors and Publishers (以下簡稱協會)與知名搖滾歌手Bruce Springsteen(以下簡稱Springsteen),和流行歌曲作者Clinton Ballard, Jr.對於紐約州的康諾利酒吧和餐館提出訴訟,原因在於酒吧和餐館沒有支付授權年費就允許樂團演奏Springsteen的歌曲。
當協會的代表發表此一聲明時,Springsteen實際上並不知道此一訴訟。Springsteen的代表指出:Springsteen事先並未被詢問是否要作為此案的原告,該協會是自作主張的將Springsteen列為此案的原告,而且即便協會事先詢問,Springsteen也不會同意作為此案的原告,也就是說不會提起此訴訟。
紐約每日新聞指出,因為協會並未獲得Springsteen的同意,Springsteen的名字應該會被移除。 協會資深副總裁Vincent Candilora(以下簡稱Candilora)表示,康諾利酒吧與餐館目前尚未發表任何聲明,而康諾利酒吧與餐館允許樂團於去年夏天演奏Springsteen的歌,但卻沒有支付授權年費給協會的行為可能會面臨三萬美元的罰金。
Candilora同時表示,為什麼這些有支付授權金的酒吧或餐館在有同樣法律約束的地區,要處於一個不利的競爭條件。提出此訴訟是給予有付授權費用的紐約酒吧一個公平的環境。
美國聯邦通訊傳播委員會(Federal Communications Commission, FCC)於今(2008)年初完成700MHz頻譜拍賣後,在8月份針對空白頻段(white space)中可用以抗干擾之技術進行測試,並於8月11日完成測試。完整的測試報告預計將在9月份公布。FCC並可望在未來幾個月內表決是否開放空白頻段。 所謂「空白頻段」係指無線電視數位化之後,位於各電視頻道之間未被使用之閒置頻段。Google、Motorola、Microsoft等公司近一、二年來持續遊說FCC開放空白頻段(white space)免執照使用,以促進無線寬頻服務之發展。 儘管數位無線電視台及Verizon等正使用該頻段之業者有干擾疑慮,然主張開放空白頻段之公司深信開放空白頻段對於新興無線寬頻服務之發展將大有助益,且透過感測技術(sensing technology)或地理定位科技(geolocation technology),即可使得無線裝置於使用空白頻段之同時,不至於干擾數位無線電視台或其他取得執照使用該頻段之業者。 關於試驗結果,無線麥克風業者Shure之資深公關經理Mark Brunner 表示,感測技術幾乎完全無法準確偵測使用中之無線麥克風或電視頻道是否正播送中,自然無法避免干擾發生。支持開放空白頻段之Motorola公司則表示,儘管感測技術無法避免干擾發生,但是Motorola所使用之地理偵測科技則在測試中被證實可有效避開正在使用中之頻段,避免干擾情況發生。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。