當蘋果公司一宣佈新的產品iPhone將上市,思科系統公司即在星期三(2007年1月10日)控告蘋果侵害iPhone商標權。思科在7年前就已經註冊iPhone的商標,蘋果好幾次企圖向思科表明想要取得iPhone的商標權,但都被思科拒絕。思科資深副總裁馬克‧賈伯斯表示,「蘋果公司的新產品十分具有吸引力,但是他們不應該未經過思科允許,就使用iPhonee商標。」此次提出控告不但保護思科的iPhone商標免於被蘋果使用,且預防公司可能有的損害。
蘋果公司發言人娜塔莉‧凱瑞絲說,我們認為思科的控告十分無聊,而且早已有很多家公司使用iPhone的商標在寬頻電話上,蘋果是第一個將iPhone商標用在手機的公司,我們相信思科宣稱擁有iPhone商標權不足以來對抗蘋果,我們相當有信心能戰勝這場戰。
波士頓律師事務所Bromberg & Sunstein創設者布魯斯‧桑斯坦表示,思科為iPhone商標註冊權人,在法律上具有優勢,蘋果唯一可選擇的抗辯,就是宣稱i系列的商標名稱,例如iPod, iTunes和 iMac,早已造成消費者的混淆,消費者已經無法辨別iPhone是由誰所製造的。桑斯坦進一步說明,蘋果雖宣稱他們在澳洲擁有iPhone商標權,但商標權為屬地主義,因此此項宣稱對於在美國已擁有iPhone商標權的思科並無太大的影響。
美國食品及藥物管理局(Food and Drug Administration, FDA)於2020年2月14日,發布於海內外應對2019年新型冠狀病毒之行動聲明,其包括: 主動監控供應鏈:由於疫情可能影響醫療產品供應鏈,FDA已與數百家藥品與醫療器材製造商保持聯繫,並與歐洲藥品管理局等全球監管機構保持同步,以評估監控潛在之製造中斷的警訊,且與生物製劑製造商聯繫,以評估有關原料之供應問題。若FDA確定醫療產品可能會短缺,則可能會採取與製造商緊密合作、加快對替代供應之審查等措施來防止短缺。 針對海外生產之FDA產品合規性之查驗與監控:FDA採取基於風險之模型來確認要進行查驗之公司,基於某些特定條件,會被認為具有較高風險之場所會被優先查驗,這些條件包括固有之產品風險、患者接觸產品之程度、過去查驗之歷史紀錄等等。除了查驗之外,其他防止不符FDA標準之產品進入美國市場之工具包括進口警示、增加進口採樣與篩查、替代查驗之紀錄要求(requesting records)。FDA可對市場上不合法之產品或違法之公司或個人採取監管與強制措施,例如警告信、扣押或禁制令。 消費品安全:美國海關暨邊境保護局將輸入美國、受FDA監管之產品交由FDA審查,其必須遵守與美國國內產品相同之標準,在FDA決定其可接受性之前不得將其分銷至美國。FDA並成立跨機關之專案小組,密切監控聲稱可預防、治療或治癒新型冠狀病毒疾病之詐欺性產品和虛假產品,並採取可能之執法行動。 對於診斷、治療與預防疾病之努力:FDA致力於促進安全有效之醫療對策的發展,提供法規建議、指導和技術援助,以促進針對用於此病毒之疫苗、治療和診斷測試之開發和可用性。FDA已核發緊急使用授權(Emergency Use Authorization, EUA),以便立即使用由美國疾病管制與預防中心所開發之診斷試劑,並已制定用於檢測病毒之EUA審查範本,其中概述申請EUA前所需之資料要求,目前已提供給表示有興趣開發該病毒之診斷工具之多位開發者。 後續行動:FDA將密切監視疫情並與跨部門合作夥伴、國際合作夥伴、醫療產品開發商與製造商合作,以幫助推進針對病毒之應對措施。
微軟對歐盟要求其分享開放原始碼的指令提起上訴微軟對歐盟指令提起第二次上訴,該指令是命令微軟分享其原始碼給開放原始碼軟體公司。 在歐盟第二最高法院判決前,微軟公司發言人 Tom Brookes 說新上訴,是基於 6 月份( 2005 年)與歐盟總部的協議,要透過法庭決定原始碼的爭議問題。 他說「微軟提起申請要求法院撤銷原訴訟決定,特別是關於將通訊協定的原始碼廣泛的授權,因為這都是微軟的智慧財產權」。 「我們採取這步驟,讓法庭能可以檢視現下的爭議,並就全世界智慧產權的保護提供一個長遠的意義」。 歐盟發言人 Jonathan Todd 說微軟公司軟體的互用性( interoperability )協議,無法用智慧財產加以保護,並且應該能在開放原始碼公司中,根據以往的營業執照加以流通使用。 不過,歐盟的執行者-歐洲委員會認為,相信此事件將獲得解決,如果盧森堡的原審法院維持 2004 年 3 月對微軟公司的規範。在 2005 年 8 月微軟公司最近的訴訟中,顯示出第二種情況。 Todd 說歐盟意識到微軟公司並沒有在與開放原始碼公司的分享協議中,分享微軟的觀點。 另外微軟第一次上訴判決的日期益尚未決定,微軟起訴乃針對歐盟命微軟必須支付 4 億 9 千 7 百萬歐元( 6 億 2 千萬多萬美元)的反拖拉斯罰金,這也是歐洲有史以來最大的反拖拉斯罰金。 歐盟聲稱軟體巨人已過度行使其 Windows 軟體統治,而把競爭者封鎖在市場外。它命令微軟公司出售不含媒體播放器的軟體,並強迫它與其他伺服器軟體競爭者分享技術,使那些競爭者的產品可以與 Windows 為作業軟體的電腦進行更好的訊息交流。
何謂「歐盟防禦基金」?歐盟防禦基金(European Defence Fund)係於2016年,由歐盟執委會主席Juncker所宣布成立,旨在促進成員國之技術與設備合作、鼓勵中小企業參與項目,促進突破性創新(breakthrough innovation)解決方案,俾達協調、供給並擴大國防設施投資、捍衛歐盟戰略自主之目的。 歐盟防禦基金之進程目前可分為兩階段。第一階段係於2017-2020年,透過「國防研究籌備行動」與「歐盟防禦工業發展項目」等兩個項目,對歐盟成員國間之防禦合作進行測試。其後,為進一步強化戰略自主與抵禦之能力,歐盟執委會於2018年6月13日決議增加基金2021-2027年之預算至130億歐元,與成員國共同進行防禦科技與設備之研發,是為第二階段。 於130億歐元之預算中,89億歐元將以共同投資之方式,讓歐盟與成員國共同投入發展計畫,包含原型(prototype)之開發(占20%)、認證與測試(占80%)。而為確保、鼓勵研發成果之可用性,共同投資係以成員國承諾採購研發成果為前提。具體而言,此一共同投資計畫具下述特點: 投資項目需有助於歐盟國防安全、符合《共同安全與防禦政策》(Common Security and Defence Policy)之優先項目,並經其成員國與NATO等國際組織同意。 以突破性創新為目標,提撥5%的資金專用於破壞式創新技術和設備之研發,以提升、鞏固歐盟長期之技術領先地位。 合作項目需有三個以上、來自不同成員國之參與者;並以優惠利率為誘因,吸引中小型企業跨境參與。 參與之成員國需承諾採購最終之研發成果。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).