美國眾議院在2019年9月10日,通過了一項法案,該法案將建立一個類似法庭的機構,處理小額著作權爭議,為著作權侵權訴訟提供一種低成本的替代方法,這個法案稱之為《CASE法》(the CASE Act),又名Copyright Alternative in Small-Claims Enforcement Act。
《CASE法》將在美國著作權局內設立一個準司法機構,稱為著作權賠償委員會,此委員會並不在政府的司法部門下運作,每件侵權作品最高可獲得之賠償金額為三萬美元。在以往的著作權訴訟中,平均訴訟成本為27.8萬美元,這意味著許多獨立創作者不會真正進行訴訟,因為他們的作品還沒有那麼值錢,此項法案通過將有助於獨立創作者保護自己的權利。
有關《CASE法》之主要內容,其主要包含以下幾項:
這項法案得到眾多藝術家和音樂發行人的支持,但受到一些消費權益團體反對,包括電子疆界基金會和公共知識組織(the Electronic Frontier Foundation and Public Knowledge),他們認為這項法案最大的缺點就是,缺乏結構性的保障以對抗濫用。這項法案對於被指控侵權的人幾乎沒有保護,更可能使不肖之徒有機可乘,隨意濫行訴訟以尋求更高額的和解金;加諸委員會並非司法部門,由委員會進行裁決,有憲法上疑慮,這都是需要詳加斟酌考慮。
美國司法部(Department of Justice)指控微軟、Yahoo和Google三家入口及搜尋網站業者,於1997到2007年間,違反禁止網路賭博之規定,接受非法賭博業者委託刊登線上廣告。 美國司法部認為此三家公司除違反聯邦線上博奕法(Federal Wire Wager Act)禁止賭博之規定以外,另違反聯邦博奕課稅條例,以及各州與地方有關禁止賭博之規定。為此,美國國稅局(Internal Revenue Service)和聯邦調查局亦介入此一案件之調查,並與司法部共同認為微軟、Yahoo和Google等著名入口網站對於社會具有重大影響力,刊登線上賭博廣告之行為不僅違反法規事實明確,對於間接促進相關線上賭博產業之興盛與賭博行為之猖獗亦應負社會責任。 在法院進行實質審理前,三家公司已於2007年12月與司法部達成和解協議,同意支付3150萬美元之罰金(折合台幣約10億元),並配合線上公益及宣導賭博違法等義務。
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。
有效開放:西進40%上限有條件鬆綁積極管理機制出爐後,行政院正在研議規劃有效開放政策,包括投資大陸 40 %上限鬆綁事宜,但尚未形成決策時間表。 40 %上限究竟如何鬆綁,政府高層高度關切,據悉,政府已委託財經智庫提供一份兩岸經貿對策建議白皮書,擬作為政府兩岸政策建議及六月召開台灣經濟永續成長會議決策參考,智庫建議應視個別企業、個別產業個案檢視放寬,對大陸投資利益必須大於不良負作用。 財經智庫建議以七大配套指標決定 40 %上限的鬆綁,七大指標包括:一、產業無法在台生產,也無法擴大中國以外的市場生產,應予放寬;二、在中國市場屬於領先地位,且可繼續擴大市場;三、在中國獲利可匯回台灣回饋股東;四、企業領先全球,必須對中國擴大投資以繼續取得全球領先地位。五、該企業在台有很大營運及研發中心,即以台灣為根;六、該企業有重大技術及品牌成就,可去大陸市場攻城掠地;七、外資持股比例高且公司治理的守法紀錄良好者。 一旦 40 %可有條件鬆綁,相關官員表示,將考慮對特定回台上市台商研擬放寬其股市上市條件,籌資再投資大陸的上限也可視為外資放寬。政府希望企業可以去大陸攻城掠地,但不希望把大陸當成唯一生產基地,企業把生產及上中下游關聯性產業一起帶走,甚至移出研發,例如筆記型電腦,對台灣造成失業等諸多不利負作用,因此台灣必須保留生產基地,生產高附加價值產品。
世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。