德國資料倫理委員會(Datenethikkommission, DEK)於2019年10月針對未來數位化政策中的重點議題發布最終建議報告;包括演算法產生預測與決策的過程、人工智慧和資料運用等。德國資料倫理委員會是聯邦政府於2018年7月設置,由多位學者專家組成。委員會被設定的任務係在一年之內,制定一套資料倫理標準和指導方針,作為保護個人、維持社會共存(social coexistence)與捍衛資訊時代繁榮的建議。
最終建議報告內提出了幾項資料運用的指導原則,包含:
身為世上最大基因改良( GMO)棉花生產者的 中國大陸 ,已經批准將經過基因改良的混種棉花進行商業化,預料可以解決生活日用品上的短缺。相對於此, 歐盟 的農業部長們,卻對於是否批准編號1507的基因改良玉米,陷入一個進退維谷的困境。但是經過8年激烈的反對, 丹麥 卻允許基因改良玉米的進口。 而在 美國 有 85﹪的大豆,76﹪的棉花,45﹪的小麥是經過基因改良的。至於 澳洲 農業與資源經濟局則最近則對基因改良作物做出一份報告,認為各省禁止基因改良食品會減小經濟效益,使 澳洲 面對世界各地日益增多的基因改良作物發展,屈居弱勢。至終可能會在十年後造成1.5億到6億澳幣的損失。
當被授權人挑戰授權專利之有效性--美國法院對上訴條件「受有損害」的認定標準2021年4月7日美國聯邦巡迴上訴法院(United States Court of Appeals for the Federal Circuit,下稱CAFC)發布了關於Apple Inc. v. Qualcomm Inc.的裁決,指出因Apple Inc.(下稱Apple)未能滿足提起上訴的資格「證明授權專利的有效性會對授權協議義務產生具體的損害影響」,故駁回其對於專利審理暨訴願委員會(Patent Trial and Appeal Board ,下稱PTAB)做出之US7,844,037與US8,683,362專利(下稱爭議專利)有效性決定的上訴。 此案爭議專利是由Qualcomm Inc.(下稱Qualcomm)持有,Qualcomm曾以Apple侵犯爭議專利提起侵權訴訟,Apple隨後在PTAB對爭議專利提出多方複審程序(Inter partes review,下稱IPR),以挑戰爭議專利的有效性,但最後沒有成功。隨後,Apple與Qualcomm達成專利侵權和解協議並簽署了授權契約,授權的專利組合中也包含爭議專利。 在專利侵權和解協議後,Apple還是針對IPR的結果向CAFC提起上訴。由於提起上訴條件之一是上訴人需有受到損害的事實,Apple以其需持續支付權利金的義務主張有受到損害的事實。但CAFC認為,Apple並沒有證明若爭議專利被視為無效,則根據其與Qualcomm授權契約所應承擔的付款義務會發生改變。因此,法院裁定Apple不符合對IPR的結果提起上訴的資格。 由上述可知,作為專利被授權人,若要在授權契約條件下對爭議專利有效性決定提上訴,需要設法證明爭議專利的有效性會對授權協議義務產生具體的影響,否則被授權人將難以因其具有實質的損害從而讓法院啟動上訴作業。
警告台商 日亞化再出招日亞化學近日動作仍不斷,近來日亞化學分別在日本、德國及南韓相繼對台灣的代理商及客戶提出口頭警告,不得採用疑似侵權的LED。日亞化學從原先警告台灣業者,進一步對台灣業者的代理商及客戶下馬威,內外夾擊對台廠商都造成威脅。 日亞化學對台灣廠商不友善是事實,特別是部份侵犯日亞化學白光LED專利的廠家,更是恨得牙癢癢。從早期日亞化學所採取的舉動來看,最先是以口頭警告方式,或對外放風聲來嚇嚇台灣業者。後來嚇多了也不管用,最後就向法院提出假扣押,算是較明顯的法律行動。不過,後來也不見太大成效,轉而向國外下手,第一是到南韓,對台灣的客戶下手,警告他們不得採用疑似侵權的LED產品。這也達到效果,南韓客戶也不太敢用台灣的產品。隨後日亞化學又到日本,對台灣業者的代理商提出警告,最後也達成共識,不販售及採用台灣疑似侵權的產品。昨日,日亞化學更遠赴德國,向台灣業者的代理商提出警告,也達成初步共識,就是不再販售台灣疑似侵權的LED。 如此內外夾擊的大動作,看得出日亞化學對台灣疑似侵權的LED十分感冒,也以實際行動來明他們悍衛自有專利的決心,絕不容許外界對其決心有任何質疑。而在日亞化學的一連串動作後,台灣LED廠商有沒有受到傷?從各家業者的官方說法中得不答案,但從大家今年下半年來的業績表現不好來看,除了手機市場不如預期的因素外,部份原因應是被日亞從中作梗而無法順利出貨。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。