新加坡個人資料保護法(Personal Data Protection Act 2012, PDPA)的基本原則之一在於可歸責性(Accountability)之建立,原因在於個資保護的責任歸屬,是組織對個資的持有與控制所為的承諾與責任表示。因此,PDPA第11、12條之法遵責任,組織必須對所持有或控制的個資負責,並且需制定並實施資料保護政策、溝通並告知員工相關政策、及履行PDPA義務所必須施行之流程與作法。於組織責任而言,PDPA雖有強制性義務責任,但應忖量組織內部責任歸屬的措施,而非僅將責任落於遵守法律的程度,組織必須從合於法規的方法轉為基於責任歸屬的方法來管理個人資料。
從而,該指南在政策、人員、流程等領域中透過資料生命週期的循環,確立組織責任歸屬。從落實良好的責任制始於組織領導力的概念出發,設定組織管理高層之職責與調性,繼而規劃處理個資及管理資料風險的方法。並由組織人員治理面向,確立溝通資訊與員工培訓知識與資源。除此之外,也在特定流程設置上,紀錄個人資料流動,了解如何收集、儲存、使用、揭露、歸檔或處理個人資料為流程的首要任務,繼而確認資料保護層面主要的差距與需要改進的領域。再將資料保護實踐於業務流程、系統、商品或服務。
本文為「經濟部產業技術司科技專案成果」
生技藥品是植基於活體生物的原理所開發出來的治療藥品,自第一批生技藥品上市以來,其專利在最近幾年已陸續到期,因此生技業者對於推出這些生物製品的學名藥版本(generic versions of biologics,以下簡稱生技學名藥),躍躍欲試。然而,美國當前的學名藥法規—藥品價格競爭及專利回復法(Drug Price Competition and Patent Restoration Act, 又名Hatch-Waxman Act, HWA),乃是針對化學藥品的學名藥版本所制定的法規,此類學名藥與生技學名藥並不相同,因此既有的學名藥法規並不能適用於生技學名藥,生技業者無不引頸企盼政府部門通過新的法規,以使生技學名藥儘速上市。 美國參議院最近提出一項生技學名藥法案—生技製品價格競爭與創新法(Biologics Price Competition and Innovation Act, BPCIA),一如HWA,BPCIA的內容也呈現出各種利益折衝的色彩,法案一方面賦予FDA對生技學名藥進行審核的新權限,並藉由減少臨床試驗之進行,加速生技學名藥的上市;另一方面,為避免低價的生技學名藥會對品牌藥的銷售產生衝擊,法案也有針對生技研發公司的研發誘因設計,以鼓勵其持續投入資金,開發更多的生技治療藥品。未來生技學名藥廠需要配合FDA所規劃的風險管理計劃(該計劃的相關立法目前尚待眾議院審議),故生技學名藥廠於其生技學名藥上市後,仍有進行臨床試驗之義務。 法案中最具爭議的條文在於,究竟應給予生技研發公司多長的銷售獨家銷售權(market exclusivity),始得允許生技學名藥廠加入市場競爭,生技研發公司與生技學名藥廠對此的歧見甚大,前者主張十四年,後者則認為五年的時間已足,目前法案訂為十二年。另一個不易處理的議題,則是藥師如何處理此類的生技學名藥,根據目前的法案內容,未來藥師亦可不經徵詢醫師而以生技學名藥代替之。
新加坡國家研究基金會推出AI.SG計畫,促進人工智慧技術發展新加坡國家研究基金會(National Research Foundation,以下簡稱NRF)於2017年5月3日宣布AI.SG倡議,並將啟動國家級AI計畫。NRF將於五年內投資新加坡幣1.5億元,整合NRF,智慧國家與數位政府辦公室(Smart Nation and Digital Government),經濟發展委會(Economic Development Board),資通訊媒體發展局(Infocomm Media Development Authority),新加坡創新機構(SGInnovate)及整合健康資訊系統(Integrated Health Information Systems)等數個政府部門,以及位於新加坡的研究機構、AI新創公司與發展AI產品的企業等共同投入。計畫三大目標如下: 利用人工智慧來解決影響社會和產業的重大挑戰 這些應用包括利用人工智慧解決交通尖峰時段壅塞問題,或應付人口老齡化帶來的醫療保健挑戰。IHiS執行長兼衛生部資訊長Mr.Bruce Liang表示:「醫療照護是需要高度知識及人性化的行業。多年來從新加坡在醫療照護數位化的發展中,可預見AI未來對於提升新加坡人民健康有很大幫助。例如在疾病預防、診斷、治療計畫、藥物治療、精準醫療、藥品開發等方面皆可發揮作用。醫護人員再加上AI工具,可以更完善解決未來對於醫療照護需求的增加。」 投入並深化技術能力,以掌握下一波科技創新 其中包括可展現更多人類學習能力的下一代「可解釋的人工智慧」 (Explainable Artificial Intelligence,XAI),以及相關技術,例如電腦系統架構(軟體、韌體、硬體整合)和認知科學(Cognitive Science)。NRF獎助金和研究計畫將會支持相關科學活動。當地人才也將透過參與AI深度功能的開發進行培訓。 擴大產業對於AI和機器學習的使用 AI.SG將與公司合作,利用AI來提高生產力,創造新產品,並輔導相關解決方案從實驗室進入市場。目標將支持100個AI研發項目和概念驗證,以利用戶能快速解決實際問題。並預計針對金融,醫療照護和城市管理解決方案領域具有特殊的潛力者先著手進行。 AI.SG計畫此項推動工作,未來不僅將可激發新加坡的研究人員和用戶利用AI解決社會重大問題,也將影響全世界渴望利用人工智慧技術帶來更便利的生活,值得我國相關機關推動政策之參考依據。
美國專利商標局更新專利標的適格性暫行準則2015年7月30日美國專利商標局大幅更新其於2014年12月所公布的專利標的適格性(patent subject matter eligibility)暫行準則。這次的更新主要是將各界對於2014年12月版暫行準則的意見納入,並包括了幾項新的適格性與不具適格性申請專利範圍的舉例。儘管有評論指出,美國專利商標局也正研議針對生物技術舉例,但此次所舉之例主要針對抽象概念而非生物技術發明。 這些舉例係對各種技術提供其他適格的申請專利範圍,以及適用最高法院與聯邦巡迴法院判斷具有其他元件的申請專利範圍是否與法定不予專利標的顯著不同的示例分析。這些例子與在審查人員的教育訓練資料中所載的判例法之判決先例,都將用於協助審查人員在評估申請專利範圍元件(claim element)的專利適格性上能夠彼此一致。 在更新的暫行準則的第三部份中,美國專利商標局為認定抽象概念提供了進一步資訊,其係有關最高法院及聯邦巡迴上訴法院對於抽象概念適格性判定的司法見解,包括人類活動的特定方法、基本經濟行為、概念本身及數學關係式/公式。 在更新的暫行準則的第五部分中,美國專利商標局解釋說,適格性的初步證據要求審查人員明確清楚地解釋為什麼無法對所提出的專利申請專利範圍授予專利(unpatentable),以便專利申請人獲得足夠的通知並可以有效地作出回應。 對於專利適格性,審查人有義務清楚地闡明所提出的專利申請不具有適格性的理由或原因,例如藉由提供判定申請專利範圍中所敘述的法定不予專利(judicial exception)與為什麼它被認定為例外的理由,以及在申請專利範圍中識別其他元件(additional element)的理由(若有的話),及解釋為何未與法定不予專利標的顯著不同。這裡由可以依據在該技術領域之人一般可得之知識、判例法之先例、申請人所揭露之資訊或證據。 美國專利商標辦公室表示,本次暫行準則歡迎各界給予意見,並至2015年10月28日止。
英國政府提交予國會「人工智慧監管規範政策報告」英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。 在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形: (1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。 (2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。 在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針: (1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。 (2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。 (3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。 (4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。 在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾: 1.確保人工智慧技術是以安全的方式使用 2.確保人工智慧是技術上安全的並按設計運行 3.確保人工智慧具有適當的透明性與可解釋性 4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統 5.規範人工智慧治理中法律主體的責任 6.釋明救濟途徑 除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。