美國歐巴馬總統在美國聯邦貿易委員會(Federal Trade Commission,FTC)2015年1月12日所舉辦的會議上,呼籲聯邦政府應制定「個人資料通知與保護法」(The Personal Data Notification and Protection Act),該法要求美國企業建立通報機制,其必須在資料遭盜取之日起三十天內通報客戶,以保護美國大眾之隱私。此一要求主要係因為發生多起網路駭客與資安事件,但目前聯邦政府卻欠缺相關法制,故聯邦政府嘗試藉此改善各州法律各行其事無法完善資安保護之問題,亦減輕跨州營運之美國企業適用各州法律之負擔,將有助於產業法制環境之改善。
同時,歐巴馬總統亦提出制定「學生數位隱私法」(The Student Digital Privacy Act)之呼籲,該法將禁止企業為獲取利益經由學校取得學生資料。此外,歐巴馬總統亦提及美國企業將需要簽署一自願性協議(Voluntary Code of Conduct for Smart Grid Customer Data Privacy,VCC),使消費者能夠查詢各企業之信用評分,帶動企業自主保護數位資料之安全,並以此作為身分盜取之預警,避免造成個資外洩後損失更多權益。而本次呼籲制定的法規尚針對先前由美國眾議院提出之「網路情報分享及保護法」(Cyber Intelligence Sharing and Protection Act,CISPA),特別強化其網路使用者保護之部份規定;其中包括加強公私部門合作以及深化網路防護安全,藉此妥善處理網路犯罪、保護國土安全等相關問題。是故,本次制定法規之目的將更著眼於擴大授權,使政府目的事業主管機關以及企業之間能夠共享相關資訊之權限,以預防更多潛在性的網路攻擊與資料盜取事件。
歐盟執行委員會(以下簡稱執委會)於2020年11月以延遲平價學名藥進入市場、違反歐盟反托拉斯法為由,裁罰以色列學名藥廠Teva和美國生物製藥公司Cephalon共6050萬歐元。 Cephalon販售的Modafinil是用於治療猝睡症的藥物,為長年佔Cephalon全球營業額40%以上的暢銷產品。儘管其主要專利已於2005年在歐洲到期,但Cephalon仍保有部分Modafinil的延續性專利(secondary patents)。原先欲以Modafinil學名藥進軍市場的Teva也有Modafinil的相關專利,然而Cephalon和Teva達成「延遲給付」(pay-for-delay)協議,Teva同意暫緩進入市場且不去挑戰Cephalon的專利。執委會經調查發現,該協議排除Teva成為Cephalon的市場競爭者,使Cephalon的專利即使到期多年產品仍可維持高價位。 延遲給付協議在專利和解上通常是合法行為,但執委會認為此舉使患者和健保體系無法即早受惠於市場競爭帶來的低價,協議廠商卻享有缺乏競爭所產生的額外利潤。歐盟日前發布的《歐洲藥品戰略》(Pharmaceutical Strategy for Europe)更強調藥品應是全民可負擔、可取得及安全的,而維持自由競爭對達成此目標至關重大。執委會認為延遲給付協議違反《歐盟運作條約》(Treaty on the. Functioning of the European Union, TFEU)第101條,以協議限制或扭曲歐盟內部市場競爭,故裁處高額罰款。2022年歐盟將採取措施降低學名藥進入市場的阻礙,考慮進行審查、要求廠商使其專利藥品在全歐盟境內都可被取得,否則將縮短其智財權的保護期間。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
美國正式推行「聯邦政府風險與授權管理計畫」2010年,美國聯邦政府展開「聯邦政府風險與授權管理計畫」(Federal Risk and Authorization Management Program,FedRAMP),在經過2年的研究與整備後,聯邦政府總務管理局於2012年06月06日宣佈FedRAMP正式運作。 FedRAMP是由國土安全部、聯邦政府總務管理局、國防部、國家安全局以及國家科技研究所共同撰寫及建置。該計畫的目的是建立一套全國政府機關可遵循依據,針對雲端服務的風險評估、授權管理的標準作業規範。 根據FedRAMP,雲端服務業者欲通過該計畫的評估,其評估程序可分為提出申請、檔案安全控管、進行安全測試、完成安全評估等四個階段。未來所有雲端產品與服務業者,都必須達到該計畫的標準規範,才能為美國政府機關提供雲端產品及服務。 對於雲端服務業者的評估,必須經由FedRAMP認證的第三方機構來進行審查,第三方評估機構欲通過認證,除了要符合FedRAMP的需求外,還必須具備雲端資訊系統的評估能力、備妥安全評估計畫、以及安全評估報告等,另外亦同時引進了ISO/IEC17020以及ISO/IEC17011之規定,來驗證檢驗機構的品質與技術能力。目前為止,聯邦政府總務管理局已經公佈十個獲得授權的機構。 聯邦政府總務管理局同時並期待在2012年的年底之前,能夠有三個雲端服務提供者通過審查,然而,由於制度才剛上路不久,是否能夠跟上產業變遷的腳步並順利達成目標,仍有待進一步觀察。
聯邦貿易委員會公布授權學名藥報告,並展開調查及處罰裁決美國聯邦貿易委員會(Federal Trade Commission,FTC)鑒於近期授權學名藥(Authorized Generic,指由原專利藥廠於專利到期後自行或授權所推出之學名藥)上市申請頻率遽增,且授權學名藥專利和解協議日多之現況,自今(2009)年起,即積極展開一系列調查行動,先後於3月首度對授權學名藥和解協議案件祭出處罰裁決,並於6月公佈一份有關授權學名藥報告(Authorized Generic: An Interim Report)。 在美國授權學名藥法規(即Hatch-Waxman Act)架構下,首次提出簡易新藥審查申請取得學名藥上市許可之第一申請者(first-filer),得享有180日之市場專屬保護期間,除授權學名藥外,保護期間內其他藥廠一概不得推出相仿學名藥。 美國學名藥市場專屬保護期間之設計,原是希望藉此加速學名藥研發與上市,達到降低藥品取得價格之效,但根據FTC調查顯示,由於授權學名藥在市場專屬保護期間內依法得進入市場,於受到授權學名藥介入競爭之壓力下,第一申請者學名藥零售價格會比原先下降4.2%,經銷價格會下降6.5%,並減少該第一申請者藥廠47-51%的收入。在此背景下,越來越多第一申請者藥廠傾向採擬與原專利品牌藥廠達成延遲學名藥上市協議之策略,藉此互為其利。根據FTC統計,2004-2008年間約有25%的專利和解案件涉及授權學名藥條款,76%的對造為第一申請者學名藥藥廠,其中有25%的和解,是由授權學名藥藥廠與第一申請者藥廠就於一定期間(平均約為34.7月)不進入市場互為承諾。 FTC目前唯一的監管機制,係依據醫療照護現代化法(The Medicare Prescription Drug, Improvement, and Modernization Act of 2003,MMA),要求專利藥廠若與學名藥廠做成任何專利訴訟和解協議或相關協議時,應於協議生效10日內向FTC通報,以供FTC決定是否展開反競爭調查。FTC對於此類協議之審查上,終於今年3月有所進展,宣布必治妥(Bristol-Myers Squibb,BMS)應就其與Apotex公司間所達成專利訴訟和解協議繳交210萬美元。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。