微軟對歐盟要求其分享開放原始碼的指令提起上訴

  微軟對歐盟指令提起第二次上訴,該指令是命令微軟分享其原始碼給開放原始碼軟體公司。


  在歐盟第二最高法院判決前,微軟公司發言人
Tom Brookes 說新上訴,是基於 6 月份( 2005 年)與歐盟總部的協議,要透過法庭決定原始碼的爭議問題。 他說「微軟提起申請要求法院撤銷原訴訟決定,特別是關於將通訊協定的原始碼廣泛的授權,因為這都是微軟的智慧財產權」。 「我們採取這步驟,讓法庭能可以檢視現下的爭議,並就全世界智慧產權的保護提供一個長遠的意義」。


  歐盟發言人
Jonathan Todd 說微軟公司軟體的互用性( interoperability )協議,無法用智慧財產加以保護,並且應該能在開放原始碼公司中,根據以往的營業執照加以流通使用。


  不過,歐盟的執行者-歐洲委員會認為,相信此事件將獲得解決,如果盧森堡的原審法院維持
2004 3 月對微軟公司的規範。在 2005 8 月微軟公司最近的訴訟中,顯示出第二種情況。 Todd 說歐盟意識到微軟公司並沒有在與開放原始碼公司的分享協議中,分享微軟的觀點。


  另外微軟第一次上訴判決的日期益尚未決定,微軟起訴乃針對歐盟命微軟必須支付
4 9 7 百萬歐元( 6 2 千萬多萬美元)的反拖拉斯罰金,這也是歐洲有史以來最大的反拖拉斯罰金。


  歐盟聲稱軟體巨人已過度行使其
Windows 軟體統治,而把競爭者封鎖在市場外。它命令微軟公司出售不含媒體播放器的軟體,並強迫它與其他伺服器軟體競爭者分享技術,使那些競爭者的產品可以與 Windows 為作業軟體的電腦進行更好的訊息交流。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 微軟對歐盟要求其分享開放原始碼的指令提起上訴, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=539&no=64&tp=1 (最後瀏覽日:2026/05/08)
引註此篇文章
你可能還會想看
落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)

2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

歐盟會員國要求分享DNA資料庫

  歐盟十五個會員國為強化對抗恐怖攻擊、跨邊境犯罪及非法遷徙之國際合作,於2007年3月28日提出有關資料分享的立法草案,以期歐盟能夠建立一套資料分享的機制與架構。立法草案明確規範了各成員國就資料保護所應給予的等級,其必須保證個人資料保護必須達到與1980年歐洲理事會(Council of Europe)通過的「保護自動化處理個人資料公約(Convention for the Protection of Individuals with Regard to Automatic Processing of Personal Data)」及其於2001年通過的附加議定書相同等級。   該立法草案係根據「Prüm條約」而來,其條約簽署背景為2004年馬德里的恐怖組織炸彈攻擊事件,有鑑打擊恐怖攻擊及跨國犯罪之國際合作,歐盟七個會員國於2005年5月27日在德國、比利時及盧森堡邊境的城市Prüm,簽訂了該條約。條約中規定,簽署國之警察及刑事追訴機關執法於恐怖攻擊及跨邊境犯罪時,得向他簽署國處理相關資料之單位請求有關DNA之分析資料、指紋及相關車籍資料。   目前,歐盟資料保護監督機構(European Data Protection Supervisor)已背書支持建立該機制與架構,並且聲明表示,該架構之建立,仍應注意資料保護的相關事項,在追求資料分享更為便利的同時,應給予人民更為足夠的保護,再者,資料處理的權責單位對於不同的資料類型,也應以不同的方式處理之,越敏感性的資料越應限制其使用目的,並且讓越少人得以接觸。

日本醫藥品醫療器材等法修正研析―以醫療應用軟體為中心

TOP