針對告知消費者個資使用方式以及確保消費者對個資利用之參與及意見表達,英國通訊傳播管理局(The Office of Communications, Ofcom)於2015年6月17日公布委託德國顧問公司WIK-Consult進行之「個資與隱私」(Personal Data and Privacy)報告。報告指出,雖然法規要求在處理個資前必須獲取相關消費者的告知同意,但事實是消費者並未在線上實際閱讀隱私權政策條款,這個問題則由於智慧聯網大幅促進了裝置間的互聯性與資料的流通而更形嚴重。報告表示,雖然資料流通的本質不變,但僅因互聯裝置數量倍增就足以讓可近用與分析的資料呈等比級數成長,要在線上對這些遍及生活各層面的資料進行追蹤也就難上加難。
對於這個起因於智慧聯網興起的問題,報告認為政府可能必須利用更複雜的契約關係加以規範。因為隱私權政策要能透明,必須指出究竟是哪些人會在何時以哪種方式為了何等目的去近用相關資料,但這勢必會讓隱私權政策條款更加冗長,這不但與隱私權政策盡可能應簡潔易懂相違,消費者也更不可能實際去閱讀。此外報告也指出,機台或裝置在智慧聯網下能夠在幾乎沒有人為介入的情況下進行溝通,此將大幅壓縮消費者能夠得知個資蒐集與使用方式的機會,智慧聯網也讓消費者可能根本沒有察覺其正在使用的裝置實際上已經與網路連線。另一方面,隨著互聯複雜性的大幅提高,有意或無意揭露個資也將帶來更多的潛在不利影響。
本文為「經濟部產業技術司科技專案成果」
日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
韓國科學及資通訊部發布「韓國科學技術主權藍圖」韓國科學及資通訊部(Ministry of Science and ICT, MSIT)於2024年8月26日發布第一次國家戰略技術發展計畫「韓國科學技術主權藍圖」(Blueprint for National S&T Sovereignty)(下稱科技主權藍圖),以促進國家戰略技術(national strategic technology)之發展。 韓國於2022年10月發表〈國家戰略技術培育計畫〉(National Strategic Technology Nurture Plan),選定12個國家戰略技術。本次發布之科技主權藍圖,旨在為國家戰略技術提供中長期之支援政策,主要政策與預期效果如下: 1. 支持國家戰略技術商業化:MSIT將在5年內投資30兆韓元(約7200億台幣)於國家戰略技術之研發,並推出「顛覆性差距特殊上市程序」(super-gap special listing procedure),為具顛覆性之新技術提供融資、租稅優惠等支援,加速其商業化。 2. 增強韌性:韓國將加強與戰略夥伴之合作,觀察國際趨勢,定期更新國家戰略技術清單,以利其對國家戰略技術保持良好的應變能力。另一方面,韓國希望保持半導體記憶體(semiconductor memory)、蓄電池與顯示器技術之領先,並積極發展人工智慧半導體、尖端生物技術與量子技術等三大顛覆性領域,以期在國際上建立韓國主導之戰略技術標準化體系。 3. 建立任務導向的研發體系:MSIT將建立任務和目標績效管理體系,並搭建創新平台,鼓勵戰略技術之研發,目標為創造15家以上的戰略技術獨角獸公司(unicorn start-up),以引領韓國未來戰略技術之發展。
日本修正放送法,跨出水平立法第一步2010年11月26日,日本組成臨時國會,在眾議院不到3小時、參議院不到1小時的審查速度,完成「放送法」修正案(連帶小修「電波法」與「電信業法」(電気通信事業法))。新法於同年12月3日公佈,並於2011年6月30日施行。 日本此次修法,在概念上並未法規匯流,而係將「有線電視放送法」、「電信役務利用放送法」與「有線廣播放送法」整併進「放送法」;概念類似我國主管機關為新聞局時代的「廣電三法整併草案」。細部修正重點如下: 1、「放送」定義由「以供公眾直接收訊為目的之無線傳訊」,修正為「以供公眾直接收訊為目的之電子傳訊」。將網際網路傳輸之方式納入定義中。 2、將「有線電視放送」等舊有定義廢除,新區分「基幹放送」與「一般放送」兩種類。所謂基幹放送,係指依電波法之規定放送之無線電台,使用被指配之專用頻段、或優先使用頻段而為之放送;所謂一般放送,則係指基幹放送以外之放送。 3、廢除舊法中的「委託、受託放送制度」,導入「軟體硬體分離」之概念。 4、總體而言,新法明顯強化了內容管制。除了上述總務大臣之權限外,新法中亦新增電視事業之節目種類公表義務、並強化了放送事故等技術問題的對應規範。