本文為「經濟部產業技術司科技專案成果」
美國最高法院近日在Mayo Collaborative Services與Prometheus Laboratories一案中判決2項與免疫疾病有關的診斷方法專利無效,業界擔憂該判決將對處於新興發展階段的個人化醫療領域的研發投入與創新有著負面影響。 本案源於Prometheus所擁有的在不同劑量下thiopurine藥物代謝情況的診斷方法專利(由於病患的藥物代謝率不同,因此醫生在判斷特定病患的藥物劑量高低有相當的困難度),Mayo購買使用Prometheus的診斷方法後, 2004年Mayo開始對外販售自己的診斷方法。Prometheus主張Mayo侵害其專利,聯邦地方法院認為該專利建構於自然法則與現象上,因此不具可專利性,但聯邦巡迴上訴法院則有不同的看法,本案因此一路爭執至最高法院。 對於自然法則、現象以及抽象的概念,基於其作為科技發展的基礎工具,為避免妨礙創新發展,一直以來法院都持不具可專利性的看法。在相關的前案中,唯有在自然法則之外,包含創新概念的元素,才能超越自然法則本身而成為專利。本案中最高法院表示,本案專利方法步驟,不符合前述基於創新概念而授與專利的條件,且該方法步驟為該領域人所熟知、常用,授與專利將導致既有的自然法則被不當的受限而影響後續進一步的發現。 評論者表示儘管該判決並未提供一個清楚的判斷標準,但並不因此讓下級法院對這類的個人化醫療專利全數否決。然本案對於可專利性客體的判斷,影響將不僅止於生命科學,進而包括所有涉及可專利性客體的軟體、商業方法類型專利,後續影響值得持續關注。
德國公佈聯邦政府人工智慧戰略要點德國政府於2018年7月18公佈「聯邦政府人工智慧戰略要點」(Key points for a Federal Government Strategy on Artificial Intelligence),係由德國聯邦經濟事務及能源部、聯邦教育及研究部,與聯邦勞動及社會事務部共同撰寫而成。 德國政府表示該要點將作為推動人工智慧技術與產業發展的基礎方針,並希望以負責任的方式以及朝向社會利益發展的方向進行人工智慧開發與應用。 德國人工智慧戰略要點摘要如下: 1. 研究能量:必須大幅增加研究支出並且爭取世界一流人才。 2. 人工智慧能力應泛分佈在社會各處:各學科與產業領域皆需要人工智慧。 3. 資料作為人工智慧發展的基礎:資料是人工智慧發展的重要關鍵,德國的資料發展重點將放在資料品質的強化。 4. 基礎設施:人工智慧中重要的技術「深度學習」,不僅需要大量資料,同時還需要強大的計算能力,德國需要加強計算能力的硬體設備。 5. 經濟應用:德國數位化發展的下一步需要仰賴人工智慧技術,尤其是中小企業採納人工智慧技術方面將會是焦點之一。 6. 社會法制:人工智慧發展過程中牽涉許多道德以及法制、監管議題,德國政府認為這些都必須請不同利害關係人共同公開討論。 7. 國際合作:德國作為歐盟會員國之一,未來的人工智慧發展將力求與歐盟各國合作。 整體而言,德國的人工智慧戰略著重在建立人工智慧生態系統,並強調人與機器之間的合作關係,為人工智慧產業發展奠定良好基礎。德國政府將基於此要點繼續制定進一步的人工智慧戰略,並預計將於2018年12月公佈德國的人工智慧戰略完整報告。
歐盟最高法院宣佈2006歐盟資料保留指令無效歐盟最高法院認為,2006歐盟資料保留指令(EU data retention directive)授權各會員國以法律要求電信業或網際網路服務供應商保留人民通信及網路活動數據資料長達兩年、並允許提供給執法或安全服務部門(police and security service)的規定,係屬重大侵害隱私生活及個人資料保護兩大基本人權,因此宣告該規定無效。該判決起因於澳洲及愛爾蘭民間團體向歐盟法院提出申訴,目前28名歐盟會員國正共同起草新的資料保護法案。 2006歐盟資料保留指令允許電信公司保留個人的ID、通信時間、通信地點及通信頻率。歐盟最高法院判決中表示,雖然肯定該規定對於偵查、追溯重大犯罪有其必要性及正當性,但對保留期間(6個月至2年)欠缺明確的保留標準,而過度侵犯個人隱私生活及未提供適當的個人資料保護措施,並不符合比例原則。 針對此一歐盟最高法院判決的宣示意涵,英國政府發言人表示通信數據的保留對執法部門偵查犯罪及確保國家安全是絕對必要的,若電信公司無法保留並提供給執法部門,很可能危及國安。 無論如何,歐盟最高法院的決定,重新宣告了人民隱私權及個人資料的保護不容國家任意侵犯,國家沒有權力任意的、不加區別的蒐集、保留一般人民的通信資料和網路行動,這是無視且扭曲基本人權的行為。該則判決為歐盟各成員國的資料保留法制開啟了新的里程碑。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。