歐盟布魯塞爾會議規劃組織(QED)在2016年12月針對第四次工業革命法制議題提出討論,呼應2016年4月歐盟執委會提出之歐洲產業數位化政策,加速標準建立,並且預計調整現行法律規制,著重於資料所有權、責任、安全、防護方面等支規定,討論重點如下:
1.目前面臨之法律空缺為何
2.歐洲產業數位化是否須建立一般性法律框架
3.標準化流程是否由由公部門或私部門負責
4.相容性問題應如何達改善途徑
5.資料所有權部分之問題如何因應
6.數位化之巨量資料應如何儲存與應用,雲端是否為最終解決方式
7.如何建立適當安全防護機制。
8.一般資料保護規則是否足以規範機器產生之數據
9.各會員國對於資料保護立法不同,其間如何調合朝向資料自由發展之方向進行
我國2016年7月由行政院通過「智慧機械產業推動方案」,期待未來朝向「智慧機械」產業化以及產業「智慧機械化」之目標進行,未來,相關法制配套規範,如個人資料保護、巨量資料應用、以及標準化等議題,皆有待進一步探討之必要。
本文為「經濟部產業技術司科技專案成果」
印度政府近年來聚焦新創創業發展,其成果更是驚人,根據一份研究報告,印度的科技產品相關新創事業光是在2016年就已達4700家以上,在當年排名全球第三,僅次於美國與英國,且預計在2020年會有2.2倍左右成長率,亦即數量翻倍。1 現今印度政府共計有超過50個新創事業獎勵補助等機制,分別由不同部門與單位執行,2 以下針對新創事業專利權補助之三大機制作介紹。 電子與資訊部門(Department of Electronics and Information Technology)、科學與工程研究委員會(Science and Engineering Research Board),以及生物科技產業研究輔助委員會(Biotechnology Industry Research Assistance Council),為三大對新創事業專利權之申請與握有,提供相關補助之印度政府部門。 (1) 電子與資訊部門之機制主要適用於人工智慧、資訊科技與軟體等產業,符合機制的新創業者申請國際專利權時,印度政府會提供15萬盧比(相當70萬台幣)或是總花費50%的補貼,補助金額看似多,但該機制有產業限制,且只施行至2019年11月30日。 (2) 科學與工程研究委員會之新創機制亦是對於專利申請有金錢上之補貼,特色在於適用產業十分廣泛,舉如化學、硬體、醫療、農業、航空、通訊、建築、能源等產業皆在機制內,重點要件在於新創業者需是已進入概念驗證(proof of concept)之階段,再者,該新創機制沒有施行期限。 (3) 生物科技產業研究輔助委員會之創新機制沒有適用產業與期限的限制,但適用對象確有限制,只限印度公民與成功展現概念驗證之創新者,該機制特色在於:補貼是對於符合標準的整個專案計畫,非只對於專利權。金額大約是20萬至500萬盧幣(約台幣10萬至200萬),或是整個專案計畫50%-90%花費。 印度政府對於新創業者之專利權相關補助共有三個機制可以選擇,優點在於新創業者可以依自己的展業別、發展階段、預算及相關因素自行選擇最有利的機制,以達到獲取補助最高的成功率。單一新創補助機制過於硬性,多數方案則可以提供選擇性與彈性。台灣就新創事業多提供貸款融資服務、資金補助計畫、或稅務減免等政策,尚未針對新創事業專利權做特定之政策優惠,或許台灣能在印度此三大專利權補助機制有可學之處。
從國內外實務見解談企業對員工之電子郵件監控 歐盟提出先進製造先進歐洲報告與行動方針 歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。