2016年10月27日,FCC依據傳播法案(Communication Act)第222條通過《寬頻用戶隱私保護規則》(Rules to Protect Broadband Consumer Privacy, 下稱2016 Privacy Order)。2016 Privacy Order主要包含以下三點:
2016 Privacy Order通過後受到ISP業者大力抨擊,尤其是網站瀏覽與應用程式使用紀錄亦須取得消費者事先同意之部分,其認為如此可能扼殺電子商務發展,消費者亦可能被不必要的警示轟炸。由於2016 Privacy Order引起諸多不平,因此通過後半年,美國參議院與眾議院分別於2017年3月投票廢止,總統並於4月3日正式簽署此份國會審查法案(Congressional Review Act)。
廢止《寬頻用戶隱私保護規則》之原因為,消費者之個人資料雖可受到保護,但該規則僅適用於寬頻服務提供者與其他電信供應商,並不包含網站與前端服務(edge services)。是以僅ISP業者受到較嚴厲之管制,其餘網路服務則由FTC管轄,而FTC對隱私權之規範較為寬鬆,因此可能發生提供不同服務的兩家業者使用同一份客戶資料,受到的管制程度卻不同之情形。
贊成2016 Privacy Order之議員與消費者自助組織(consumer-advocacy groups)表示ISP業者應受到較嚴厲之規範,因消費者能輕易在網站間轉換,卻不能輕易更換ISP,且ISP得以取得消費者在所有網站上之瀏覽資料,但如Google與Facebook等大廠雖非ISP業者,卻亦能取得不限於自身網站的客戶瀏覽資料。
由於《寬頻用戶隱私保護規則》已正式廢止,FCC將不得再通過其他相同或實質上相同之規範,對ISP業者之管制回歸《傳播法案》第222條,亦即,對於網站瀏覽與應用程式使用紀錄之使用或分享,不須取得客戶之事先同意。
2016年中國大陸知識產權保護措施發展研析 資策會科技法律研究所 法律研究員 王凱嵐 105年11月28日 一、 前言 中國大陸為提升知識產權保護、運用、流通,於2009年開始,由其國家知識產權局每年推出知識產權戰略實施推進計畫,確立年度執行目標。根據WIPO[1]於2015年所公布的年度《世界智慧財產權指標》報告,內容中提到中國大陸在專利、商標、工業品外觀設計等智慧財產權領域的申請量均位居世界第一。顯示中國大陸在知識產權上之發展,不僅制度與環境不斷成長進步,其知識產權[2]之國際地位亦快速提升。 中國大陸2016年的知識產權推進計畫[3]持續在「嚴格保護知識產權」、「加強知識產權創造運用」、「深化知識產權領域改革」、「加大知識產權對外合作交流」、「確實知識產權發展基礎」及「加強組織實施和保障」六大面向提出政策措施。其中許多政策措施皆與保護知識產權有關,顯見中國大陸認為創造友善環境及建立保障機制為其發展知識產權並提高產值的重要基盤,因此本文擬就其中有關知識產權保護之措施進行重點說明。 二、 知識產權保護政策重點 1. 提高侵權法定賠償 由於知識產權侵權案件中,權利被侵害之一方舉證困難,且過去案例賠償金額偏低,無法有效嚇阻侵權行為之發生,故在知識產權保護法治化上,加強侵權行為懲治力度被中國大陸視為必要手段。除加大侵權人之侵權行為懲治力度,提高侵權法定賠償上限外,並針對情節嚴重的惡意侵權行為實施懲罰性賠償。 過去中國大陸之專利、商標訴訟案件,權利人獲得之賠償金額整體偏低,因此間接助長違法之侵權行為。因此,早在2013年已先將商標侵權的法定賠償額由50萬元提高到300萬元,使法院在審判上有更大的裁量空間,較能達到嚇阻侵權之效果,故「提高法定賠償上限」將成為中國大陸相關知識產權立法之趨勢。 2. 強化職務發明權益保護 為加強知識產權保護,營造良好市場環境,現行中國大陸「專利法」、「著作權法」已建立職務發明之基本制度,惟在實踐上仍存有問題(如:時常發生申請案發明人為公司代表人)[4]。因此,中國大陸國家知識產權局(SIPO)於2014年3月提出「職務發明草案」[5](送審稿),內容對於發明創新的勞動者與資方間,於產出過程中所可能發生的法律議題及關係,以法律加以規範。 草案基於權利義務平衡及約定優先原則,勞資雙方得事先對於職務發明的報酬與權利歸屬等相關細節討論約定,而在當發生無法解決的狀況時(例如無契約約定或協議),始引用本職務發明條例之規定。草案規定公司若選擇透過技術祕密保護時,發明人可以請求補償;若是申請知識產權,發明人可以請求獎勵和報酬。在權利申請過程中,若公司放棄,則應先事先通知發明人,發明人可以與公司協商,並以發明人自身名義取得申請權或是其他權利。 關於最低保障原則,為避免資方不與勞方協議職務發明的歸屬約定狀況發生,草案中也明確訂定了最低的保障門檻,給予職務發明員工基本主張權利,讓資方不得忽視發明人在職務發明中的權利。當雙方未約定相關獎勵與報酬時,草案中規定以「月平均工資」為最低的計算標準,同時制訂四種報酬的計算方式,以供勞資雙方在爭議產生時,可以作為依循的準則。 3. 提升訴訟審判精準度 過去司法判決常有標準不一之疑慮,造成專利判決之不確定性,因此在2016年計畫中要求地方知識產權法院總結審判實踐經驗,發布司法解釋並統一司法裁量,確保法律正確適用和有效保護知識產權之規範依據。在專利侵權判定標準上,確立專利權保護之範圍,避免壓縮創新空間、損害創新能力及公共利益。 在審判制度上,建立司法鑒定、專家證人、技術調查等訴訟制度,鼓勵法律在專利等相關技術案件審判中,妥善利用陪審員、專家證人、專家諮詢、技術鑒定之功能,透過多種途徑和管道,有效解決專業技術事實認定之問題。有條件的發展更有效之調查方式及具體作法,使知識產權之審判能不斷提升準確度[6]。 三、 結論 中國大陸在「十三五」[7]時期樹立新的發展理念,擬藉由深化知識產權重點領域改革,加速建設知識產權強國與推動經濟轉型升級。從討論司法制度之大方向,到提高侵權賠償之上限額度等具體規範上,皆可觀察出中國大在整體知識產權保護規劃,是以有系統及縝密的分類交由不同單位部門執行,這足以顯現中國大陸對於知識產權發展其保護之重要性。 智慧財產權在產業研發與升級扮演關鍵核心的角色,因此我國於2012年由行政院核定「智財戰略綱領」,明確指出智財相關規劃發展項目(如管理、運用、人才培育)。然而侵權訴訟賠償金額偏低、專利無效率偏高、職務發明激勵不足,仍亦為尚待解決之議題。當前我國面臨經濟轉型與產業升級的問題,在保護面更應縝密思考如何透過法令強化職務發明人的權益保障,藉此提升其研發創造意願;改善所有人的訴訟勝訴率,提升權利持有的效益,讓智財成為我國經濟發展之強大動力。 [1]世界智慧財產權組織。 [2]「知識產權」為中國大陸用語,我國稱「智慧財產權」。 [3]計劃全名為《2016年深入實施國家知識產權戰略加快建設知識產權強國推進計畫》。 [4]北美智權,<中國大陸職務發明條例草案>,2013/01/03,http://www.naipo.com/portals/1/web_tw/Knowledge_Center/Laws/CN-50.htm (最後瀏覽日:2016/10/26) [5]中國大陸國家知識產權局,<職務發明條例制定>,2016/04/24,http://www.sipo.gov.cn/ztzl/ywzt/zlfjqssxzdscxg/xylzlfxg/201504/t20150424_1107558.html (最後瀏覽日:2016/10/12) [6]中國最高人民法院,<最高人民法院關於貫徹實施國家知識產權戰略若干問題的意見>,2010/04/14,http://zscq.court.gov.cn/znss/201004/t20100414_4107.html (最後瀏覽日:2016/09/20) [7]全稱是『中華人民共和國國民經濟和社會發展第十三個五年規劃綱要』,由習近平定調,也是中國大陸國家層級整體經濟與社會發展規劃之第十三個五年規劃(英文為five-year plan),規劃期間是從2016年至2020年。
英國資訊委員辦公室(ICO)發布企業自行檢視是否符合歐盟一般資料保護規則之12步驟英國作為歐洲金融重鎮,不論各行業均有蒐集、處理、利用歐盟會員國公民個人資料之可能,歐盟一般資料保護規則(General Data Protection Regulation,簡稱GDPR)作為歐盟資料保護之重要規則,英國企業初步應如何自我檢視組織內是否符合歐盟資料保護標準,英國資訊委員辦公室(Information Commissioner's Office, ICO)即扮演重要推手與協助角色。 英國ICO於2017年4月發布企業自行檢視是否符合GDPR之12步驟(Preparing for the General Data Protection Regulation(GDPR)-12 steps to take now),可供了解GDPR的輪廓與思考未來應如何因應: 認知(Awareness):認知GDPR帶來的改變,與未來將發生的問題與風險。 盤點資料種類(Information you hold):盤點目前持有個人資料,了解資料來源與傳輸流向,保留處理資料的紀錄。 檢視外部隱私政策(Communicating privacy information):重新檢視當前公告外部隱私政策,並及時對GDPR的施行擬定因應計畫。 當事人權利(Individuals'rights):檢視資料處理流程,確保已涵蓋GDPR賦予當事人如:告知權、接近權、更正權、刪除權、製給複本權、停止處理權、不受自動決策影響等相關權利。 處理客戶取得資料請求(Subject access requests):GDPR規定不能因為客戶提出取得資料請求而向其收費;限期於1個月內回覆客戶的請求;可對明顯無理或過度的請求加以拒絕或收費;如拒絕客戶請求則限期於1個月內須向其說明理由與救濟途徑等。 處理個人資料須立於合法理由(Lawful basis for processing personal data):可利用文書記錄與更新隱私聲明說明處理個人資料之合法理由。 當事人同意(Consent):重新檢視初時如何查找、紀錄與管理取得個人資料的同意,思考流程是否需要做出任何改變,如無法符合GDPR規定之標準,則須重新取得當事人同意。 未成年人(Children)保護:思考是否需要制定年齡驗證措施;對於未成年人保護,考慮資料處理活動是否需取得其父母或監護人的同意。 資料外洩(Data breaches):有關資料外洩的偵測、報告與調查,確保已制定適當處理流程。 資料保護設計與影響評估(Data Protection by Design and Data Protection Impact Assessments):GDPR使資料保護設計與影響評估明文化。 資料保護專責人員(Data Protection Officers):須指定資料保護專責人員,並思考該專責人員於組織中的角色與定位。 跨境傳輸(International):如執行業務需跨越數個歐盟會員國境域,企業則須衡量資料監管機關為何。
中國大陸首例遊戲玩家集體請求網路遊戲公司回復遊戲中的團隊中國大陸首例因在網絡遊戲中花重金組建的團隊遭遇離奇解散,導致來自多個省市的遊戲玩家聯手於河南省對網絡遊戲運營商提起訴訟。 代表玩家提出訴訟的原告在《魔域》中投入許多時間與金錢,建立「情誼無痕」軍團,最高時軍團人數達2000餘人。由於軍團的升級和日常維護開支需要眾玩家共同出力出錢,「情誼無痕」被無故被解散所影響的玩家人數眾多。 被告網龍公司主張遊戲帳號註冊時所輸入的身份證並非原告本人、服務器電腦記錄顯示有人登錄「落花有意」帳號並將「情誼無痕」軍團解散,由此可推斷該帳號曾有兩人以上使用,故不能排除該帳號曾借與朋友使用或被他人盜號使用而將軍團解散。 每法官與原被告雙方進行調解,因雙方意見分歧,最終未達成調解協議。玩家表示如果網龍公司不能給予合理的答覆,他們將聯合分佈在全國各地的其他玩家陸續不斷地起訴網龍公司。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).