本文為「經濟部產業技術司科技專案成果」
繼美國紐約南區地方法院於2007年6月判定暢銷藥物Plavix所基於的專利為有效後,美國聯邦上訴法院於2008年12月再次認定Plavix之專利為有效。此判決有助於阻止Plavix學名藥進入美國市場直至該專利於2011年到期。 Plavix為一降低血液黏稠度之藥物,乃Bristol-Myers Squibb Co. 公司最銷售之產品及Sanofi-Aventis公司第二銷售之產品。加拿大Apotex公司宣稱Plavix之專利為無效,於2006年開始在美國販售Plavix 之學名藥。Bristol-Myers Squibb 與Sanofi-Aventis於贏得訴訟後表示將要求Apotex Inc.支付於販售學名藥期間對兩家藥商所造成的損失。 澳美國聯邦上訴法院法官表示地方法院已徹底的討論Apotex 所提出的專利無效論點,否決Apotex所提出的該專利並未包含新發明及Sanofi-Aventis之科學家使用已知研究方法及已知化合物製成Plavix 之主要組成物。上訴法院法官表示於判斷非顯而易見上,使用「後見之明」(hindsight)是不適合的。 針對此判決,Apotex公司表示他們認為上訴法院之決定為錯誤的並將持續努力尋求於美國銷售有品質的且一般大眾負擔得起的Plavix 學名藥。
國際海事組織建立海上自駕船舶監理架構國際海事組織(International Maritime Organization, IMO)所屬之海事安全委員會(Maritime Safety Committee, MSC)於2018年12月召開第100屆大會(MSC 100),本屆會議批准海上自駕船舶監管架構,要點如下: 一、盤點相關國際海事組織規範,以確認該規範: 是否適用於海上自駕船舶(Maritime Autonomous Surface Ships, MASS)及是否妨礙其運作與航行;或 是否適用於海事海上自駕船舶且不妨礙其運作;或 是否適用於海事海上自駕船舶且不妨礙其運作,但需要進一步調修。 MSC預計相關規範之盤點結論將於2019年6月前完成,並期待於2020年完成相關法規調適,盤點範圍包括:安全規範(SOLAS)、碰撞規範(COLREG)、載重線與穩度(Load Lines Convention)、海員與漁夫訓練(STCW, STCW-F)、搜尋與救援(SAR)、噸位丈量(Tonnage Convention)、貨櫃安全(CSC)、以及特殊貿易客船(SPACE STP, STP)。 二、 定義海上自駕船舶之自動化等級: 等級1:配備有自動化處理與決策支援船舶,海員仍於船上對船舶系統及相關功能進行控制。某些功能可以於無人監控下自動化運作,但船員於船舶上仍應於自動駕駛系統發生故障時進行人為介入。 等級2:有船員隨船之遙控控制船。該船舶係由岸上人員控制,惟船上之船員可於必要時介入並接手運作該船舶之自動駕駛系統與功能。 等級3:未有船員隨船之遙控控制船,該船舶由岸上人員控制。 等級4:全自動化船舶,船舶之自動駕駛系統可自行做出決策並反應。 此外,MSC預計提出海事海上自駕船舶航行指引(Guidelines on MASS trials),該指引將於下一會期(MSC101)之國際海事委員會會議進行草擬。
北歐能源科技觀點報告討論建築能源效率等為達碳中和所採措施 英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。