加拿大競爭局(Competition Bureau Canada,下稱競爭局)為更了解人工智慧如何影響或促進競爭,於2025年1月27日發布人工智慧與競爭諮詢報告(Consultation on Artificial Intelligence and Competition)。競爭局於意見徵詢期間獲得來自學術界、法律界、產業協會及大型科技公司的意見書。 諮詢報告彙整意見書內容並列出以下重點: 1. 人工智慧從資料輸入、基礎模型至終端產品或服務各階段皆在快速發展,可以為市場帶來新的競爭或阻礙競爭,人工智慧可能影響競爭原因包含資源依賴、資料控制及市場參進障礙等等。 2. 人工智慧領域中大規模投資是技術成長的重要關鍵,大型企業可藉由市場力量減少競爭或進行創新,少數大型企業因擁有較高的投資能力及數據資料專屬性,在基礎架構層(運行人工智慧所需的工具,如人工智慧晶片、雲端運算及超級電腦等)中佔有極高的市場份額,但也有部分意見認為人工智慧市場仍蓬勃發展中,亦有企業或學術機構未過度依賴專有數據但仍能開發出產品。 3. 人工智慧可能導致反競爭行為,企業雖可透過垂直整合來降低成本並提高效率,但可能會減少現行市場內部競爭,或透過具有人工智慧的演算法進行定價,達到操縱市場價格的行為,現行反壟斷法未來是否可以解決此一問題還有待觀察。 藉由諮詢的過程,競爭局更能掌握人工智慧發展、也了解公眾對話的重要性,意見書亦有助於該局未來提出兼顧人工智慧發展及促進市場競爭之政策措施。 我國公平交易委員會已於112年5月成立AI專案小組,負責掌握國際間人工智慧相關競爭議題的趨勢與發展,並針對現行人工智慧發展與競爭法執法研提政策配套措施,我國公平交易委員會與加拿大競爭局對於人工智慧與市場競爭議題之後續動態,值得持續追蹤。
美國上訴法院:行為人不得以「主觀上對犯罪行為之無意識」阻卻著作權之侵害在電腦與網際網路普及與便利的今日,只要上網搜尋一些特定軟體,非常容易就能下載侵害智慧財產權的音樂或是影片,這樣的行為當然是非法的,但在美國出現爭議,若未成年人利用電腦非法下載,可否用「不知道這是犯罪行為」來抗辯侵權呢? 美國就發生了這樣的案例,現年22歲Whitney Harper,於2004年被美國唱片業協會(The Recording Industry Association of America,RIAA)控告其使用Kazaa分享軟體,下載阿姆(Eminem)、瑪麗亞凱莉(Mariah Carey)等37首歌曲,並將該37首歌曲透過線上分享軟體讓其他使用者亦得下載,RIAA認為此行為侵害了這些歌曲的智慧財產權,要求Whitney Harper每首歌曲需付750美元懲罰性賠償。 在訴訟中,唱片公司主張,其已於每張CD上貼上警示標籤;而Whitney Harper則抗辯自己不應該負擔如此高的罰款,係因當時她只有16歲,沒有意識到未經授權下載歌曲是違法行為,且認為下載就像利用網路聽收音機節目一樣,應該是免費的,認為自己無罪。 雖然有一些法官支持Whitney Harper的爭辯,不過第五巡迴上訴法院認為,無論Whitney Harper是否知悉其下載音樂之行為係屬違法,只要唱片公司有公告未經授權之重製行為即侵害著作權,與被告Whitney Harper之主觀意識無關。最後第五巡迴上訴法院確認Whitney Harper有罪,並判定 Whitney Harper共需賠償27,750美元。 Whitney Harper不滿其判決結果,向美國最高法院提起上訴,但法院拒絕其上訴。
世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。