歐盟執委會同意德國全面開放寬頻市場

  在歐盟公布電子通訊網路的規範架構後,德國電信主管機關聯邦網路局Bundesnetzagentur(BNetzA)於2005 年10月11日提出寬頻接取批發市場的規劃草案,提案內容包含顯著市場力量(SMP)及寬頻網路市場的定義,不過卻將超高速網路接取(very high-speed internet access)排除在寬頻接取市場的定義之外,由於此將涉及德國在流量接取(bitstream)及寬頻接取市場的有效競爭,以及有可能影響具有顯著市場力量的德國電信公司(Deutsche Telekom)與後進電信業者建置VDSL基礎設施或提供寬頻多媒體服務的意願。因此此項草案在送交資訊社會媒體執委會後,引發了諸多爭論。多數委員認為如未將VDSL列入寬頻接取批發市場的定義中,將會導致其他業者無法以同一立足點與德國電信競爭。在BnetzA將VDSL列入市場定義,並允以流量作為批售基礎而重提規劃案後,歐盟執委會於2005年12月23日通過決議,同意德國的電信主管機關聯邦網路局Bundesnetzagentur(BNetzA)全面開放含VDSL在內的高速寬頻網路市場。

相關連結
※ 歐盟執委會同意德國全面開放寬頻市場, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=286&no=55&tp=1 (最後瀏覽日:2026/05/04)
引註此篇文章
你可能還會想看
醫療科技公司轉型提供資料類型產品解決方案於美國之智財權布局建議

醫療科技公司轉型提供資料類型產品解決方案於美國之智財權布局建議 資訊工業策進會科技法律研究所 2023年05月31日 過去,醫療科技公司僅專注於開發針對醫療問題的硬體解決方案,近年這些企業則致力於轉型開發收集及利用大量病人、資料提供者資料之產品,而轉變成資料平台公司,而更可以全面了解病人及客戶生活習慣及健康狀況。 其中許多解決方案均利用人工智慧(Artificial Intelligence, AI)及機器學習(Machine Learning, ML),相較傳統上研發成果多為硬體設備,現今則轉變成出現大量軟體解決方案,保護研發成果之方式將發生改變,如何選擇合適的智慧財產權保護研發成果成為企業重要課題,此亦影響企業如何做智慧財產布局及擬定公司相關經營策略,因此建議企業——尤其是開發醫療資訊平台之醫療科技公司,特別是致力於開發醫療器材軟體(Software as a Medical Device, SaMD)、醫療設備嵌入式軟體(Software In a Medical Device, SiMD)及應用於醫療技術中的人工智慧等新興領域時可以參考以下提供之思考方向選擇對於企業發展最適切之智慧財產權保護態樣。[1] 研發成果如欲獲得專利保護,該發明必須係獨一無二且可以傳授的——即人們不能將自然發生或不可再現的事物申請專利,因為發明需透過專利以清楚的方式概述,並明確定義專利內容,並向公眾揭露,以便於申請人取得專利、並於專利期限屆滿後(專利保護期限因各國法規、專利類型而將有所不同,建議企業應了解欲布局之國家相關法規規定,如台灣之發明專利[20年]、新型專利[10年]、設計專利[15年]),使大眾得藉以實施該技術內容。[2] 在美國,專利係由美國專利商標局賦予所有權人於一定期間內壟斷其發明之權利,即美國聯邦法律更使專利所有權人在專利權效期內得以禁止他人於該期間內於美國製造、使用、銷售或進口至美國這項已獲得專利保護之發明,此給予專利權人一個得以建立一個阻止他人進入市場的巨大障礙,可防止競爭及保護專利權人可以自由實施該權利。[3] 因專利有上述特性,文章作者建議,如裝置(device)、該裝置使用之軟體,對於從事新藥開發之藥廠,於保護新穎成分(New Chemical Entities)、相關之治療方法及人工智慧相關發明較適合以專利保護。[4] 營業秘密係指資訊擁有者已盡合理努力保密,且不為公眾所周知或非可被公眾輕易探知而具有獨立經濟價值的,任何形式及類型之資訊。合理努力可能包括(但不限於),要求員工簽署保密協議、定期提醒員工其負有保密義務(如:針對職務不同/所從事不同工作之員工,保密義務內容、程度、時間是否有所不同?)、踐行必要而知悉(need to know) 原則(如:執行不同工作之人員是否可互相存取各自的資料? 抑或僅能存取自己工作所需之資料?)、佈署IT安全措施或辦公室安全措施之狀況(如:是否有門禁?資料如有異常存取狀況時是否有示警機制?)並須即時調查及採取行動打擊涉及盜用營業秘密之行為(如:是否有相關通報不當使用營業秘密之管道及監控機制?)[5] 在美國,傳統上營業秘密之保護是結合各州法律而成,除了紐約州及北卡羅萊納州以外,所有州都頒布了其特有版本的《統一營業秘密法》(Uniform Trade Secrets Act, UTSA)——係一項1979年頒布的統一法案。於2016年,國會又頒布了《保護營業秘密法Defend Trade Secrets Act, DTSA》,該法案保障當事人於聯邦法院提起營業秘密訴訟之權利,且只要促進犯罪行為之行為發生於美國,當事人即可於國外進行訴訟,此外,《統一營業秘密法》中規定營業秘密包含公式、模式、彙編、程式、設備、方法、技術或過程。而依《保護營業秘密法》(Defend Trade Secrets Act, DTSA),營業秘密可為任何形式,無論係以物理、電子、圖形、攝影或書面形式儲存、編輯或紀錄之財務、商業、科學、科技、經濟或工程資訊均為營業秘密之範疇,因此,營業秘密之適用範圍較廣,於美國甚至抽象之想法均可受營業秘密保護。[6] 與僅提供有限保護期限之專利有別,如欲獲得營業秘密之保護,僅需資訊持續保密並存在並持續存有價值,該資訊即會持續受到營業秘密保護並擁有無限的有效期限,亦即,只要該資訊仍為秘密,即受到營業秘密之保護。如:可口可樂已將其配方作為營業秘密保護了130多年之久。惟與專利不同的是營業秘密一但被公眾周知或得以透過適當方式獨立開發(如競爭對手自己獨立開發而產出之資訊),就將失去營業秘密之保護。[7] 因為營業秘密之特性,諸如蛋白質結構、客戶清單、機器學習演算法、原始碼、化學製程參數(如:會產生化學反應之溫度或壓力)、甚至是醫療科技公司近年致力經營的人工智慧領域所產出的人工智慧、新的模型訓練方法、優化模型參數、消極專有技術(如:不該做什麼)。[8] 惟選擇專利抑或營業秘密之方式保護其研發成果將視企業的業務為何決定,如缺乏透明度之產業可能較適合以營業秘密方式保護,而非專利。例如:網路安全公司可能傾向於營業秘密保護,因為申請專利揭露其機密安全演算法可使競爭對手開發競爭產品或使駭客進行量身訂製之攻擊。相較之下,製造容易檢測、針對消費者之電子產品之企業更依賴專利保護,製造具有行業標準化品質之產品之企業亦是如此。[9] 總體而言,是否容易被逆向工程將會是決定以專利或營業秘密保護之關鍵性調查方式。因申請專利必須揭露細節事項,將對廣泛保護資料為基礎之軟體(且有使用人工智慧或機器學習)較具挑戰性,故專利較適合保護裝置(device)及會相互作用之實體產品和軟體。而營業秘密則要求資料所有人無限期地維持秘密性,亦須注意自己的想法獲得他人關注時遭仿效之風險,故較適合造價高或難以仿效的軟體、製造方法或產品。[10] 而對於生技醫療公司而言,其應考量使用混和策略以保護人工智慧相關之創新,如:專有之原始和訓練資料、模型之優化參數、將專有技術用於訓練模型及其他難以進行逆向工程之人工智慧相關的此類機密資訊,可能較適合用營業秘密保護,同時該技術的其他方面,如人工智慧系統或使用其開發之藥物則可透過專利保護。[11]惟不論企業決定要將該資訊做為營業秘密保護或申請專利保護,企業對於研究人員發表相關資訊的行為均應審慎評估,避免因揭露而喪失專利之新穎性或營業秘密之秘密性的情形。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Kristin Havaranek, Martin Gomez, Matt Wetzel, Steven TJoe & Stephanie Philbin, Top 5 IP Considerations for Medtech Companies Transitioning To Data-enabled Product Solutions (2023), https://medcitynews.com/2023/01/top-5-ip-considerations-for-medtech-companies-transitioning-to-data-enabled-product-solutions/ (last visited June 1,2023). [2]John Quinn, Protecting Inventions Through Patents and Trade Secret (2023), https://www.newsweek.com/protecting-inventions-through-patents-trade-secrets-1788352 (last visited May 30, 2023). [3]Id. [4]Charles Collins-Chase, Kassanbra M. Officer & Xinrui Zhang, United States: Strategic Intellectual Property Considerations For Protecting AI Innovations In Life Sciences (2023), https://www.mondaq.com/unitedstates/trade-secrets/1276042/strategic-intellectual-property-considerations-for-protecting-ai-innovations-in-life-sciences (last visited May 30, 2023) [5]Id. [6]John Quinn, supra note 2. [7]Id. [8]Collins-Chase et al., supra note 4. [9]John Quinn, supra note 2. [10]Havranek et al., supra note 1. [11]Collins-Chase et al., supra note 4.

中國大陸通過《中華人民共和國電子商務法》 針對「電子商務平台經營者」制定專節

  中國大陸於2018年8月31日第13屆全國人大常務委員會表決通過了《中華人民共和國電子商務法》(以下簡稱《電商法》),並將於2019年1月1日實施 。《電商法》首條揭示了「保障電子商務各方主體合法權益、規範電子商務行為、維護市場秩序」之意旨,除以「電子商務經營者」為主要規範對象外,亦涵蓋了法律行為、支付與物流、爭議解決等各個交易層面。   有鑑於電子商務平台對市場的主導作用,《電商法》特別針對「電子商務平台經營者」(以下簡稱「平台」)制定專節,要求其審核平台內經營者之資質資格,並課予其保障智慧財產權及消費者人身、財產安全之義務。分述如下: 為因應電子商務平台上仿冒偽劣品氾濫之窘境,《電商法》規定平台於接收權利人所發送之侵權通知後,須採取刪除、屏蔽、斷開鏈接、終止交易和服務等行動,否則需就損害擴大之部分,與平台內經營者負連帶責任。此外,平台「明知」或「可得而知」平台內經營者已侵害智慧財產權,而未採取必要措施者,亦須與侵權行為人承擔連帶責任。 如商品或服務涉及消費者之生命、健康,則平台負有:(1) 對平台內經營者資質資格之審核義務;以及(2) 對消費者之安全保障義務。如因未履行上開義務而造成消費者損害,需與該平台內經營者承擔「相應的責任」;換言之,平台是否踐履相關義務應依實際個案認定。同時增加行政罰規定,違者由市場監督管理部門責令限期改正,最重並得課處200萬元之罰款 。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

英國與美國為人工智慧安全共同開發簽署合作備忘錄

英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。 此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動: 1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。 2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。 3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。 4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。 5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。 換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。

TOP