新加坡國家研究基金會(National Research Foundation,以下簡稱NRF)於2017年5月3日宣布AI.SG倡議,並將啟動國家級AI計畫。NRF將於五年內投資新加坡幣1.5億元,整合NRF,智慧國家與數位政府辦公室(Smart Nation and Digital Government),經濟發展委會(Economic Development Board),資通訊媒體發展局(Infocomm Media Development Authority),新加坡創新機構(SGInnovate)及整合健康資訊系統(Integrated Health Information Systems)等數個政府部門,以及位於新加坡的研究機構、AI新創公司與發展AI產品的企業等共同投入。計畫三大目標如下:
AI.SG計畫此項推動工作,未來不僅將可激發新加坡的研究人員和用戶利用AI解決社會重大問題,也將影響全世界渴望利用人工智慧技術帶來更便利的生活,值得我國相關機關推動政策之參考依據。
本文為「經濟部產業技術司科技專案成果」
日亞化學近日動作仍不斷,近來日亞化學分別在日本、德國及南韓相繼對台灣的代理商及客戶提出口頭警告,不得採用疑似侵權的LED。日亞化學從原先警告台灣業者,進一步對台灣業者的代理商及客戶下馬威,內外夾擊對台廠商都造成威脅。 日亞化學對台灣廠商不友善是事實,特別是部份侵犯日亞化學白光LED專利的廠家,更是恨得牙癢癢。從早期日亞化學所採取的舉動來看,最先是以口頭警告方式,或對外放風聲來嚇嚇台灣業者。後來嚇多了也不管用,最後就向法院提出假扣押,算是較明顯的法律行動。不過,後來也不見太大成效,轉而向國外下手,第一是到南韓,對台灣的客戶下手,警告他們不得採用疑似侵權的LED產品。這也達到效果,南韓客戶也不太敢用台灣的產品。隨後日亞化學又到日本,對台灣業者的代理商提出警告,最後也達成共識,不販售及採用台灣疑似侵權的產品。昨日,日亞化學更遠赴德國,向台灣業者的代理商提出警告,也達成初步共識,就是不再販售台灣疑似侵權的LED。 如此內外夾擊的大動作,看得出日亞化學對台灣疑似侵權的LED十分感冒,也以實際行動來明他們悍衛自有專利的決心,絕不容許外界對其決心有任何質疑。而在日亞化學的一連串動作後,台灣LED廠商有沒有受到傷?從各家業者的官方說法中得不答案,但從大家今年下半年來的業績表現不好來看,除了手機市場不如預期的因素外,部份原因應是被日亞從中作梗而無法順利出貨。
何謂「循環經濟」?循環經濟(Circular Economy)不僅是資源回收或廢棄物利用,循環經濟強調的核心概念是創造資源利用的最大效益,有別於傳統經濟模式在資源利用上「開採、製造、使用、丟棄」的線性歷程,循環經濟加入了減少廢棄物產生、資源重覆與有效利用的概念,讓資源利用與產品的生成不再是有去無回的單向線性歷程。 循環經濟的概念能夠套用到所有產品的生命歷程當中,自產品設計、生產、物流、銷售、使用、回收,到投入新的產品生命歷程,以環型的資源利用歷程,加入各種資源再利用的方式,並盡可能減少真正廢棄物的生成。與此相關聯的包含新興科技如大數據、物聯網之應用,到創新商業模式的生成,都可以是循環經濟的一部分。 循環經濟所揭示的概念,是讓產業發展與環境保護能攜手同行,創造資源利用的最大效益。在歐盟「展望2020計畫」(Horizon 2020)當中,也同樣把循環經濟列為計畫的重要領域之一,循環經濟時代來臨所揭櫫的不僅僅是在資源回收、或是幾種廢棄物再利用的技術,而是對經濟體系當中資源運用歷程的重新形塑,與新興科技及商業模式創新均密不可分。
日本委託研究開發之智慧財產治理運用指引委託研究開發之智慧財產治理運用指引(委託研究開発における知的財産マネジメントに関する運用ガイドライン,以下簡稱委託研發智財運用指引)為日本經濟產業省制定並於2015年5月15日公布,用於規範該省、或該省所轄獨立行政法人委外執行技術研發計畫而產出的各項智慧財產權之管理運用事宜。 日本於產業技術力強化法第19條納入拜杜法(Bayh-Dole Act)的意旨,建立了政府資助研發所生的智財權成果歸屬受託單位的原則,但同時為促進研發成果的第三人商業化利用,落實國家資助技術研發成果獲得充分運用以達成國家財富最大化的政策方針,因而作成該指引。 委託研發智財運用指引以委託機關和受託單位為規範對象,首先揭示了研發成果商業化利用的重要性,並以此為核心思維,賦予委託機關須就個別委外研發計畫,在計畫開始前訂定計畫智財權管理方針,並向潛在計畫參加者提示的義務,同時,委託機關須確保委託契約中包含智財權等成果管理運用之約款,例如針對成果有無適用日本拜杜法規定、受託單位承諾在相當期間內未妥善運用成果時開放第三人利用等;另一方面,受託單位則有義務就計畫設置智財營運委員會,負責在計畫執行期間處理智財權管理事宜。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。