所謂「大麻」實為大麻屬植物,其中除了較常耳聞的娛樂用大麻外,尚包含工業用大麻(俗稱火麻,hemp),兩者區分標準在於四輕大麻酚(THC)成分高低,後者THC成分小於0.3%,難以做為娛樂用,由於大麻於過去曾有相當時間遭各國所禁止,因此與其有關之研究、專利申請案之數量可謂罕有。然而,近年來隨著各國逐漸放寬對大麻的限制,諸多藥商陸續投入以大麻為成分之藥品開發中,並執此取得專利申請,從而引發相關人士提出此種專利究竟是否具備新穎性之疑問。
日前於2018年7月間,美國即有藥商對此提出專利訴訟,全案大致背景如下:United Cannabis Corp.(下同UCANN)對Pure Hemp Collective Inc.(下同Pure Hemp)提出專利侵權訴訟,指稱Pure Hemp所研發之多款含CBD成分之藥物均侵害其編號9,730,911之專利(下同911專利)。而Pure Hemp則反駁,並稱911專利其中第1、5、16、20、25項聲明將此一專利範圍擴張至所有以液體型態存在之高效價大麻二酚(liquid form of high-potency cannabis),因此若其他藥品商以此一成分生產其他藥物,不論作用、成效是否相同,均可能侵害UCANN之專利權。
本案爭點在於:「以大麻中,早已廣泛流通於市面之大麻二酚(CBD)製成之藥品,是否具備專利法上之新穎性?」。對於系爭專利成分「液態高效價大麻二酚」,事實上已於美國銷售多時,從而此一成分是否具備「新穎性」即容有疑問。業界相關人士指出,美國專利及商標局(U.S. Patent and Trademark Office,下同當局)未審酌上開涵蓋過廣之專利聲明以及未顧及系爭專利成分已於市場流通多年此二種情況,即核發專利許可證,可以說是一種行政怠惰。同時間,也有論者較為持平的認為這可能得肇因於大麻專利申請案之前例過少,使得當局專職審核是否具備新穎性要件之相關人員要難查知。此種說法雖然稍有為當局開脫之嫌,但實際上也間接彰顯了專利審查人員於核發此種專利時,有判斷不周的情形。無論如何,目前全案尚在審判中,詳細結果,均有待判決做成後方知一二。
歐盟執委會電信委員Viviane Reding提出一項擴大手機漫遊簡訊計畫(cross-border text messages plans),主要內容系將目前平均一通49美分的漫遊文字簡訊傳輸調降70%以下。在確定這項政策可以獲得歐盟民意的支持後,新的正式立法計畫將在2008年秋天完成,經過歐盟政府與歐盟議會同意後,預計於2009年的夏天實施這項新政策。 雖然丹麥建議以4.2美分作為零售文字漫遊簡訊的價格上限,但是在徵詢各方意見後,電信委員會最後仍然決定以12美分做為文字漫遊簡訊的價格上限。除此之外,依據電信委員會的消息指出,文字漫遊簡訊的批發價上限也將可能調降在4到8美分之間。 有業者表示,歐盟電信委員會增加對於電信費率的價格管制,將會降低業者研發新服務的意願。但是,歐盟電信委員會認為業者的主張,並不能構成文字簡訊費率上限政策施行的阻礙。 由於文字簡訊的市場已經成熟,業者在此項服務的獲利上已相當穩定,因此透過合理的價格上限,可以讓消費者有更符成本的漫遊文字簡訊服務,同時業者也能持續在此項服務上獲利。但是反觀資料傳輸尚處於萌芽階段,因此電信管制者與系統業者皆認為目前就漫遊的資料傳輸進行價格上限管制尚不適宜。 另外,Reding於2007年曾提議對於歐洲漫遊語音通話的價格進行上限管制,此項電信費率政策受到習慣於暑假進行跨國旅遊的歐盟居民的歡迎,Reding表示此項於2009年到期的政策極可能再延長三年至2012年。
德國經濟暨能源部召開2016年「中小企業創新核心計畫」年度會議德國經濟暨能源部於2016年10月27日召開2016年「中小企業創新核心計畫」年度會議,約有200位專業經理人、企業與學者共同參與討論創新產品未來在市場的趨勢、創新生產流程與技術服務,專家在會中提供許多寶貴意見。聯邦政府中小企業處代表Gleick開幕致詞時表示,中小企業的創新力量決定我們在未來的經濟成就,所以政府需要持續投資在研究與創新以及適當的補助。 經濟暨能源部以「中小企業創新核心計畫」補助中小企業、研究機構共同開發以市場為導向的研究與創新技術,透過共同合作使參與的企業更具有產業競爭優勢,此計畫於2016年提供543百萬歐元補助,日前亦通過2017年548百萬歐元補助預算。 中小企業創新核心計畫(Zentrales Innovationsprogramm Mittelstand ,以下簡稱ZIM)是一項覆蓋全國範圍、不限制技術領域和行業的補助計畫,補助對象除中小企業外,還包括與之合作的研究機構。ZIM計畫中補助的中小企業為員工人數不超過499人,同時年營業額低於5000萬歐元或資產負債表總額低於4300萬歐元的企業。該計畫整合過往其他許多補助計畫,德國聯邦經濟與能源部於2015年4月公佈了最新的ZIM計畫實施方針,擴大受補助中小企業的範圍,且提高資助資金的數額,將對企業補助的最高數額從35萬提高到38萬,對研究機構補助的最高數額從17.5萬提高到19萬歐元,以持續提升德國中小企業的創新能力與競爭力;企業與合作研究機構可以在補助的架構下針對先進技術研發獲得資金,研發主題不限,重點在於創新內容與市場價值。
德國最新無人機之法規命令(Die Drohnen-verordnug)德國在2017年的3月通過了最新的無人機相關法規命令,亦包含傳統模型飛機的部分,並於2017年4月7日生效,新的修正重點如下: 模型飛機如在專用的機場飛行則維持不變,但如果離開專用機場作使用時,則必須安裝記載有所有人姓名及住址的徽章。 在非專用機場使用時,無人機與模型飛機的共通事項: (1) 超過0.25公斤時:必須安裝記載有所有人姓名及住址的徽章。 (2) 超過2公斤時:除前述的徽章外,還必須有特別的有關無人機或模型飛機的專業知識證明;而該知識證明,可以從聯邦航空局(Luftfahrt-Bunderamt)或民間飛行運動協會(Luftsportverband)透過考試取得。 (3) 超過5公斤時:除前述的條件外,需要從各地區航空管理部門(Landesluftfahrtbehörden)追加額外的升空許可(Aufsteigserlaubnis)。 關於操作者的規範: (1) 無人機的操作者,除了在模型飛機基地外,原則上禁止飛行超過100米高,但可向地區航空管理部門提出申請。 (2) 模型飛行器操作者須有專業知識證明。 (3) 無人機與模型飛行器只能在能肉眼可見下飛行。 一般適用規定:無人機與模型飛行器不能阻礙或危害人力駕駛飛行器。 禁止事項: (1) 所有的無人機或模型飛行器不得在敏感區域(例如:警察機關、救難隊、大群民眾所在地、主幹道、航空起降區等)使用。 (2) 無人機與模型飛行器不得於住宅區接收、播送、以及紀錄影片、聲音、或是無線電訊號。 綜合觀察可以發現,德國對於無人機的使用規範(或限制),可以歸結至三 方面,對於使用人的規範、無人機的大小以及使用地點的限制。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).