2007年2月份美國加州聖地牙哥法院甫宣判,微軟公司必須支付約15億美元(折合新台幣近500億元)給阿爾卡特(Alcatel-Lucent)公司,以解決微軟公司產品使用MP3技術所引發的糾紛。不過在3月初,另一位聯邦法官Rudi Brewster做出一項裁定,駁回阿爾卡特公司所有的主張,因為阿爾卡特公司主張微軟公司侵害一項其所有之有關語音編碼的技術專利。
微軟與阿爾卡特的專利官司可追溯至2003年,當時未合併前的朗訊(Lucent,二公司於2006下半年合併)公司控告PC製造商Dell與Gateway使用其所擁有的MP3技術專利。微軟公司後來被捲入這場專利糾紛,與阿爾卡特(Alcatel-Lucent)公司專利官司的糾紛日益擴大。二家公司爭訟的結果,在2月份的判決,根據2003年5月以來微軟公司所賣出的每台Windows PC數目,來計算出可能造成的損失,所以微軟公司才必須付出約15億美元的天價。
但是3月的這項裁定,卻阻止阿爾卡特公司趁勝追擊。在知識經濟的時代中,專利訴訟的結果甚至可能影響一家公司的興亡,相信沒有多少家公司可以輕易付出15億美元的賠償,如何確保不侵犯他人的智慧財產是很重要的課題。此外,爭訟的雙方都是業界的重量級廠商,不論結果如何,後續的發展都值得大家關注。
本文為「經濟部產業技術司科技專案成果」
歐洲數位權利中心(The European Center for Digital Rights,下稱noyb)為提倡網路隱私權、消費者隱私的非營利組織,其於2021年11月12日向奧地利資料保護局(Austrian Data Protection Authority, DSB)投訴Grindr公司,抗議該公司的Grindr應用程式違反歐盟的一般資料保護規範(即General Data Protection Regulation,下稱GDPR)。 Grindr是款交友約會軟體,主要的使用者為男同性戀、雙性戀以及跨性別者。使用者註冊帳號時,僅需提供電子郵件信箱帳號及密碼和一些個人基本資料即可。然而,若使用者想了解Grindr公司如何使用其個人資訊時,Grindr公司要求使用者需手持記載其電子郵件的字條,或拿著護照自拍,經該公司確認使用者身分後,才會配合使用者的請求。noyb直言,Grindr公司的認證政策不僅荒謬,更違反了GDPR。 noyb代表一個名為「Hunk_69」的帳號使用者提出投訴,這個帳號因為身分認證失敗而遭到Grindr公司拒絕透露該公司如何使用其個人資料。noyb指出Grindr公司對於使用者提供個人資料的政策前後不一,儘管使用者在使用Grindr交友時可以保持匿名狀態,但在向Grindr公司請求提供個人資料用途時,卻需要提供真實身分。noyb主張Grindr公司已經違反歐盟GDPR第5條(1)©「資料最少化原則」。多數公司多半以「安全理由」要求客戶提供個人資料供其認證,但這樣的要求是不當的,根據奧地利聯邦行政法院、愛爾蘭資料保護委員會(the Irish Data Protection Commissioner, DPC),以及丹麥資料保護局(Danish Data Protection Agency, Datatilsynet)近期裁決見解,認證客戶身分必須個案評估使用者的身分是否有疑慮,而非一概的要求使用者進一步提出個人資料以供公司認證。因此,使用者在Grindr註冊帳號時,既然毋庸提供真實姓名,則Grindr公司於認證使用者身分要求提出真實姓名,實際上是無任何幫助,反而違反了GDPR第5條「資料最少化原則」及第12條(6)規定。 noyb創辦人Max Schrems表示,Grindr的設計就是讓使用者保持匿名狀態,因此使用者僅須使用電子郵件信箱和密碼,就可以在Grindr上與人互動,甚至分享最私密的照片,但想要實行GDPR相關權利時,卻須自行揭露身分並提供身分證明。 Grindr公司則認為,如果使用者想要實踐GDPR賦予使用者的權利,不願與Grindr分享任何個人資訊,可以刪除Grindr帳號。
何謂「三螺旋理論」三螺旋理論,又稱三螺旋創新模型理論(Triple Helix Theory),主要研究大學、產業以及政府以知識經濟為背景之創新系統中之型態關係,由Etzknowitz與Leydesdorff於1995年首次提出。 因應知識經濟時代來臨,三螺旋理論著重於政府、學術界與產業界(即為產、官、學)三者在創新過程中互動關係的強化。該理論探討如何協調產業、政府、學界三方於知識運用和研發成果產出上的合作;當社會動態產生改變,過去單一強大的領域將不足以帶動創新活動,推動創新也非單一方的責任,此時產業、政府、學界的三螺旋互動便隨之發生:大學透過創新育成機構孕育企業創新,而產業則扮演將研發成果商業化之要角,政府則透過研發相關政策、計畫或法規制定,鼓勵企業和大學間研究發展合作。 有別於早期經濟合作暨發展組織(OECD)將「產業」作為主要研發創新主體,三螺旋理論更重視產業、政府、學界三大主體均衡發展,三方主體各自獨立發展,且同時與其他方維持相互協力合作,共同推進經濟與社會之創新發展。 在三螺旋理論下,產、官、學因其強弱不等的互動狀態,形成不同的動態模型(例如國家干預模型、自由放任模型、平衡配置模型等等),這些動態模型被認為是產生創新的主要動力來源,對未來新知識和科技創造與擴散的能力以及績效具有決定性的影響力。
日本閣議通過《特定數位平台之透明性及公正性提升法案》,以改善電商交易環境日本閣議通過《特定數位平台之透明性及公正性提升法案》,以改善電商交易環境 資訊工業策進會科技法律研究所 2020年05月11日 日本內閣於2020年2月18日通過《特定數位平台之透明性及公正性提升法案》(特定デジタルプラットフォームの透明性及び公正性の向上に関する法律案),並提交國會,期望能在2021年春季施行[1]。本法案將要求特定數位平台(Digital Platform)業者公開其與透過平台供應商品或服務者之間的契約等各項措施,以提高特定數位平台的透明性與公正性,透過推動公平且自由的競爭環境,為促進經濟發展和國民經濟的健全發展做出貢獻。 壹、事件摘要 近年來資通訊技術領域的革命性進展,讓數位平台有效幫助商品與服務供應者更易於進入各商品或服務市場,如大型網路商城透過蒐集分析用戶的購買紀錄、商品瀏覽紀錄、搜尋關鍵字紀錄、位置資訊等,能夠更精準投放廣告至消費者的搜尋頁面,增加賣家商品或服務的曝光機會,減輕新手賣家觸及潛在消費者的負擔。賣家越多、越容易搜尋到所需商品或服務,甚至能同時推薦優惠組合的網路商城,能夠提高消費者的黏著度,賣家對該平台也會更加依賴,使得數位平台產業成為寡占市場。 面對數位平台市場的寡占現象,日本政府於2018年6月15日公布之《未來投資戰略2018》中說明擬透過整備規則以活化競爭環境,因此經濟產業省、總務省及公平交易委員於同年7月組成「數位平台業者交易環境整備檢討會」(デジタル・プラットフォーマーを巡る取引環境整備に関する検討会),將以實現透明性及公正性為目的,進行相關規範之整備,並規劃進行大規模調查,藉此掌握實際交易狀況[2]。 因此公平交易委員會(公正取引委員会)於2019年1月針對大型網路購物商城,如Amazon、Yahoo Shopping、樂天市場等,以及應用程式商店,即App Store、Google Play展開「數位平台業者之交易習慣等相關實態調查」。根據同年4月17日公布的上開調查中間報告(デジタル・プラットフォーマーの取引慣行等に関する実態調査についての中間報告),使用樂天市場及Amazon的賣家中,各有超過72%的賣家被平台單方變更使用條款,且各有超過69%的賣家認為使用條款的改變對其不利,三大網路商城中只有Yahoo Shopping的表現稍佳;大多數的賣家都遇過不明原因被停權或商品被下架的情形,但其中僅有約一半的賣家在解決問題後能夠再上架[3]。應用程式商店方面的調查結果也大同小異[4]。同年10月31日公布的調查報告印證數位平台業者的「未提前說明即變更條款」或「未說明理由即拒絕交易」等行為,以及商品與服務供應者聯繫客服提出意見、申請等機制不夠完善,均有妨礙市場透明性和公正性之疑慮[5]。除此之外,也恐有《獨占禁止法》(私的独占の禁止及び公正取引の確保に関する法律,又稱「独占禁止法」)上不公平競爭之疑慮,如數位平台業者透過變更使用條款提高手續費、強制使用平台新服務等行為,可能適用《獨占禁止法》第2條第9項第5款濫用相對優勢地位之要件;此外,若數位平台業者自行推出與該平台其他賣家同類的商品及服務,由於數位平台業者可得知賣家銷售紀錄、消費者交易紀錄等資訊,容易推出更加吸引消費者的優惠活動,亦可透過更改關鍵字及顯示結果排序等方式,取得較其他賣家優勢之地位,可能適用《獨占禁止法》第2條第9項第5款阻礙競爭對手交易之要件。 除上述狀況外,實務上亦存在其他問題。例如,平台上之賣家因依賴平台且意欲獲取消費者關注,此時面對數位平台業者種種不公平行為,如單方面變更使用條款,或針對相同商品或服務,要求賣家必須設定與其他平台相同或更加優惠價格,賣家多會選擇接受而非改換使用其他數位平台。另一方面,應用程式商店的寡占現象,反倒成為App開發者拓展用戶的一大阻力[6]。 為使數位平台業者自主且積極地提高數位平台上交易透明度與公正性,日本政府認為應在不阻礙創新及尊重自主性的原則下,制定要求數位平台業者公開交易條款、營運狀況等資訊之法規,並進行監督和審查[7]。因此由內閣官房長官主導,與主責IT政策、網路安全戰略、消費者與食品安全、公平交易、個人資料保護等之大臣,以及總務大臣、經濟產業大臣,共同召開數位市場競爭會議(デジタル市場競争会議),根據前述實態調查報告所統整的各項課題,研擬《特定數位平台之透明性及公正性提升法案》[8]。 貳、重點說明 提高數位平台的交易透明度與公正性,除能增進用戶利益,亦有助於提升整體經濟社會活力及永續發展,因此本法案從讓數位平台業者自主且積極提升數位平台透明性與公正性出發,將國家的干預及其他管制的影響降到最低,旨在使數位平台業者可充分發揮其創意及努力,並促進數位平台業者和商品與服務供應者的相互理解[9]。 本法案的規範對象為「特定數位平台業者」(特定デジタルプラットフォーム提供者),數位平台業者係指使用數位科技為「商品與服務供應者」(商品等提供利用者)及「一般利用者」提供網路平台,且其服務具網路效應(Network Effect)的特性[10]。未來法案通過後,經濟產業大臣會先參考來自數位平台的資訊,透過政令區分行業別,並在該業種的範圍內考量各項指標,諸如該數位平台對國民生活及國民影響程度、用戶對該數位平台的使用集中程度、根據交易實際狀況及動向判斷保護商品與服務供應者的必要性、商品與服務供應者對該數位平台其他規範及措施之反應、營業額等。若一數位平台的上述指標超出政令所規定之範圍,經濟產業大臣會將該數位平台之業者指定為「特定數位平台業者」,即特別應盡力提升其數位平台透明性及公正性者[11]。另外,經濟產業大臣在制定或修正政令所需之範圍內,得要求數位平台業者,甚至是商品與服務供應者提出所需資料及說明[12]。 為協助特定數位平台業者採取適當且有效的措施,以促進和商品與服務供應者的相互理解,依本法案規定經濟產業大臣應制定指針供業者遵循,內容中則應說明以下事項︰建立可和商品與服務供應者妥善溝通之機制,如指派國內業務的專責窗口;制定可確保交易公正性的程序及機制;整備爭端處理機制及程序[13]。在交易條件等資訊公開方面,本法案規定特定數位平台業者有義務向用戶公開契約條款且變更條款前應先通知用戶,並規定因安全等理由而無法公開的例外情形[14]。本法案也規定特定數位平台業者應每年向經濟產業大臣提出報告,內容應包含其事業概況,以及自我評估前述指針、資訊公開等規定的遵循狀況,經濟產業大臣會依業者提供之報告進行評定並公布結果,業者則應依該評估結果盡力提高該數位平台的透明性及公正性[15]。 另外,對於有阻礙數位平台的透明性和公正性之行為,以及違反獨占禁止法疑慮之特定數位平台業者,則會交由公平交易委員會依該法之規定及個案具體事實採取措施[16]。 參、事件評析 本法案之制定源於數位平台業者和商品與服務供應者間由於資訊、立場不對等而引發紛爭,但本法案並未選擇從保護賣家權益立場出發,而是期望由業者採取自主措施等方式,達到提升數位平台市場透明性和公正性,以消弭紛爭之目的。又,雖然本法案有由政府評估並公布特定數位平台之營運是否具備透明性及公正性之規定,但該評估是基於特定數位平台業者提出之「自我評估」報告,故官方評估結果是否具實質參考意義有待商榷。 綜觀而言,本法案並未嚴格規範數位平台業者,對應法案內有關增進用戶利益和提升整體經濟社會活力等語,可發現本法案本質上應為一部振興數位平台產業的法案,故是否真能解決平台和商品與服務供應者間因資訊不對等而引發糾紛的問題,將是未來關注的焦點。 我國對網購糾紛之討論主要聚焦於買賣雙方,依循的是「零售業等網路交易定型化契約應記載及不得記載事項」及《消費者保護法》等規範,對於數位平台業者和商品與服務供應者間之權利義務關係則尚未有明確規範。在數位平台業者的透明性規範方面,目前僅有2017年11月20日通過之《數位通訊傳播法草案》,於第11及第12條規範數位通訊傳播服務提供者[17]應以適當方式,公開揭露營業相關資訊,並應依其服務之性質,以得清楚辨識之方式公告其服務使用條款。從規範平台業者之角度出發,雖然日本法令看來稍嫌寬鬆,但從促進產業發展角度而言,不啻為重要參考對象,有助我國在相關法制整備上,於數位經濟產業發展與保障平台用戶權益間取得平衡。 [1]日本經濟新聞,〈巨大IT支配に監視の目 議論進むデジタル規制〉,2020/05/06,https://www.nikkei.com/article/DGXMZO58702670R00C20A5947M00/(最後瀏覽日:2020/05/06)。 [2]〈(令和元年10月31日)デジタル・プラットフォーマーの取引慣行等に関する実態調査(オンラインモール・アプリストアにおける事業者間取引)について〉,公正取引委員会,https://www.jftc.go.jp/houdou/pressrelease/2019/oct/191031_2.html(最後瀏覽日:2020/03/22)。 [3]〈オンラインモール運営事業者の取引実態に関するアンケート調査(詳細)〉,公正取引委員会,https://www.jftc.go.jp/houdou/pressrelease/2019/apr/kyokusou/190417besshi1.pdf(最後瀏覽日:2020/05/19)。 [4]〈アプリストア運営事業者の取引実態に関するアンケート調査(詳細)〉,公正取引委員会,https://www.jftc.go.jp/houdou/pressrelease/2019/apr/kyokusou/190417besshi2.pdf(最後瀏覽日:2020/05/19)。 [5]〈デジタル・プラットフォーマーの取引慣行等に関する実態調査報告書(オンラインモール・アプリストアにおける事業者間取引)(概要)〉,公正取引委員会,https://www.jftc.go.jp/houdou/pressrelease/2019/oct/191031c.pdf(最後瀏覽日:2020/03/22)。 [6]同前註。 [7]〈デジタル市場のルール整備〉,首相官邸,https://www.kantei.go.jp/jp/singi/digitalmarket/kyosokaigi/dai1/siryou1.pdf(最後瀏覽日:2020/03/22)。 [8]〈「デジタル・プラットフォーマー取引透明化法案(仮称)の方向性」に関する意見募集に寄せられた御意見について〉,首相官邸,https://www.kantei.go.jp/jp/singi/digitalmarket/kyosokaigi/dai3/sankou1.pdf(最後瀏覽日:2020/03/22)。 [9]〈「特定デジタルプラットフォームの透明性及び公正性の向上に関する法律案」が閣議決定されました〉,経済産業省,https://www.meti.go.jp/press/2019/02/20200218001/20200218001.html(最後瀏覽日:2020/03/22)。 [10]〈特定デジタルプラットフォームの透明性及び公正性の向上に関する法律案の概要〉,経済産業省,https://www.meti.go.jp/press/2019/02/20200218001/20200218001-1.pdf(最後瀏覽日:2020/05/18)。 [11]特定デジタルプラットフォームの透明性及び公正性の向上に関する法律案(第201回閣法第23号)第2条、第4条。 [12]特定デジタルプラットフォームの透明性及び公正性の向上に関する法律案第15条。 [13]特定デジタルプラットフォームの透明性及び公正性の向上に関する法律案第7条、第8条。 [14]特定デジタルプラットフォームの透明性及び公正性の向上に関する法律案第5条、第6条。 [15]特定デジタルプラットフォームの透明性及び公正性の向上に関する法律案第9条。 [16]特定デジタルプラットフォームの透明性及び公正性の向上に関する法律案第13条。 [17]依數位通訊傳播法草案第二條之規定,數位通訊傳播服務提供者係指提供公眾或他人使用有線、無線、衛星或其他電子傳輸設施傳送數位格式之聲音、影像、文字、數據或其他訊息的服務之自然人、商號、法人或團體。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).