歐洲專利局(The European Patent Office, EPO)於2019年6月27日發布《2023年戰略計畫》(Strategic Plan 2023, SP2023),協助歐盟應對網路化和全球化的世界挑戰。該戰略計畫之重點為實現專利局五大策略目標,分別為:員工參與(staff engagement)、資通訊現代化(modernisation)、品質(quality)、歐洲專利網路(European patent network)和永續性(sustainability)。
該五大策略目標分述如下:
本文為「經濟部產業技術司科技專案成果」
英國能源與氣候變遷部 (Department of Energy & Climate Change, DECC) 於2012年十二月十二日,依據歐洲執委會於同年三月針對智慧電表系統推展準備所發表的建議 (2012/148/EU: Commission Recommendation of the 9th March 2012 on preparation for the roll-out of SM systems, Section 1.4),公佈其就智慧電表實施計畫對隱私影響的評估 (Privacy Impact Assessment)。 該項評估羅列了十一項面向,分別探討其可能因智慧電表實施對隱私帶的衝擊。這些面向包括有智慧電表為防範非法、未經授權資料近取的安全性管理,中央、地方政府機關及執法單位為他途而對資料的使用,第三人對細部能源消費資料的取得,對電表資料過長時間的保留,及非帳戶持有人對能源消費資料之取得等。 該部部長巴洛妮絲‧菲瑪 (Baroness Verma) 表示: 消費者是最重要的,因此能源與氣候變遷部在推動智慧電表實施的同時,亦致力於隱私、安全、消費者保護及通信等議題的處理。 除此之外,DECC並針對應如何]執行歐盟於同年十月二十五日通過的能源效率指令(Energy Efficient Directive 2012/27/EC) 中,第十條第二項B款所定關於消費者對去過去至少二十四個月能源消費資料應有簡易取得方式之要求,展開公開諮詢的程序。 英國智慧電表的全面推行預計從2014年展開至2019年結束前完成。其是否能在確保公眾能源消費資料不受非侵害或不當利用的前提下,發展各項配套措施以完成這項各國皆欲達成浩大工程,令人期待。
日本人工智慧(AI)發展與著作權法制互動課題之探討日本著作權法第2條第1項第1款規定對著作物定義中,創作性之表現必須為具有個人個性之表現,日本對於無人類行為參與之人工智慧創作物,多數意見認定此種產品無個性之表現,非現行著作權法所保護之產物。人工智慧之侵權行為在現行法的解釋上,難以將人工智慧解釋其本身具有「法人格」,有關人工智慧「締結契約」之效力為「人工智慧利用人」與「契約相對人」間發生契約之法律效果。日本政府及學者對人工智慧之探討,一般會以人工智慧學習用資料、建立資料庫人工智慧程式、人工智慧訓練/學習完成模型、人工智慧產品四個區塊加以探討。日本政策上放寬著作權之限制,使得著作物利用者可以更加靈活運用。為促進著作之流通,在未知著作權人之情況下,可利用仲裁系統。在現今資訊技術快速成長的時代,面對人工智慧的浪潮,日本亦陸續推出相關人工智慧研發等方針及規範,對於爾後之發展值得參酌借鏡。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
英國資訊委員辦公室(ICO)發布沙盒執行過程中所觀察到的關鍵議題2019年9月英國資訊委員辦公室(Information Commissioner's Office, ICO)啟動沙盒計畫(ICO Sandbox)測試階段(beta phase),由ICO所選10個測試專案,透過解決當今社會問題,例如如何減少暴力犯罪、大學如何促進學生的心理健康、新技術如何改善醫療保健等,期能促進公眾利益。 各專案在滿足創新性和可行性前提下,同時也面臨著複雜的資料保護議題,因此ICO持續與各專案溝通,提供其應用現有個資保護指引之建議,如歐盟一般資料保護規則之資料保護影響評估指導文件(Guide to the GDPR - Data protection impact assessment)、資料保護自我評估工具包(Data protection self-assessment toolkit)等。自2019年3月底開始(受理申請)迄今,ICO沙盒執行過程中所觀察到的關鍵議題如下: 公部門資料應用效益:部份參與者正在克服與公部門進行歷史資料共享,或是如何整合應用大數據等。個人資料與新技術應用,必須與資料主體的權利和自由進行權衡。 同意:確保各方對於「同意」(Consent)之理解,以弭平差異,同時向公眾提供透明資訊。 新技術的挑戰:應用語音生物辨識(voice biometrics)、臉部辨識技術(facial recognition technology, FRT)等,需要在適當基礎上處理特殊類別資料。 資料分析(Data analytics):以符合資料保護的方式進行資料分析,處理特殊類別資料的適法性,評估處理過程中的風險,並檢查可能用於資料分析的資料來源,確保符合目的之應用。 未來的6個月,ICO將持續與各專案合作,使其為有效的解決方案,為公眾提供創新合規之產品與服務,並成為未來結合資料保護和創新應用之規劃藍圖,以奠定隱私保護的基石。