日本於2021年5月19日公布新修正之《個人資料保護法》(個人情報の保護に関する法律),並預計於2022年4月正式施行。修法重點如下:
一、法律形式及法律管轄一元化:現行日本個人資料保護法制依適用對象分為《個人資料保護法》、《行政機關個人資料保護法》(法律行政機関の保有する個人情報の保護に関する法律)、《獨立行政法人等個人資料保護法》(独立行政法人等の保有する個人情報の保護に関する法律)及各地方政府個人資料保護條例等不同規範,修法後將統一適用《個人資料保護法》,並受到個人資料保護委員會之監督管理。
二、整合醫療及學術領域之規範:目前醫療及學術機構因隸屬於公部門或私部門適用不同規範,修法後無論公私立醫院、大學等原則上均適用相同規範。
三、調整學術研究之豁免規定:基於學術研究自由為憲法保障之基本權,現行《個人資料保護法》明文規定學術研究一律排除適用本法規定,惟2019年日本取得《歐盟一般資料保護規則》(GDPR)適足性認定之範圍未包含學術研究,故修法調整豁免規定為例外情形排除適用,如變更利用目的、取得敏感性個人資料及提供予第三者之情形。
四、整合個人資料及匿名化資料之定義:修法將公部門與私部門對個人資料之定義,整合為包含「易於」與其他資料比對後得以識別特定個人之要件。而《行政機關個人資料保護法》所稱「去識別化資料」(非識別加工情報),與《個人資料保護法》所稱「匿名化資料」(匿名加工情報),修法後將統一稱為「匿名化資料」。
為銜接上述修法內容,日本個人資料保護委員會自2021年8月起陸續針對《個人資料保護法施行令》、《個人資料保護法施行規則》及個人資料保護法相關指引公開徵求意見,後續值得持續觀察日本個人資料保護法制發展。
美國商務部(Department of Commerce, DOC)旗下國家標準及技術研究院(National Institute of Standards and Technology, NIST)於2023年2月28日發布《晶片與科學法》(CHIPS and Science Act)補助具體內容,重點如下: 一、申請時間:補助採滾動式錄取模式(rolling basis),先進製程製造補助將於2023年3月31日起開放預先申請(pre-application)與正式申請(full application);成熟製程與其他相關生產設施的製造補助,將分別於2023年5月1日及6月26日開放預先申請及正式申請。 二、補助方式與金額:補助分為直接補助(direct funding)、聯邦政府貸款(federal loans)或第三人提供貸款並由聯邦政府提供擔保(federal guarantees of third-party loans)。直接補助的金額上限預計為預估資本支出的15%。每個計畫可透過一種以上之方式獲得補助,然整體補助金額不得超出預估資本支出的35%。 三、申請流程 1.意向聲明(statement of interest):申請人須提供半導體製造工廠投資計畫的簡要說明,俾利NIST旗下晶片計畫辦公室(CHIPS Program Office)為未來審查進行準備。 2.預先申請:申請人提供更詳盡的計畫內容。晶片計畫辦公室將給予調整意見。 3.正式申請:依照晶片計畫辦公室給予的意見修改後,申請人應遞交完整的計畫申請書,內容必須包含投資計畫的技術與經濟可行性之分析。晶片辦公室審核完畢後,會與申請人簽訂不具約束力的初步備忘錄(non-binding Preliminary Memorandum of Terms),記載補助方式與金額。 4.盡職調查(due diligence):在經過上述程序後,晶片計畫辦公室如認為申請人合理且可能(reasonably likely)取得補助,將對申請人進行盡職調查。 5.補助發放:通過盡職調查後,DOC將開始準備發放補助。 四、補助規範與限制 1.禁止買回庫藏股(stock buybacks):受補助者不得將補助款用於買回庫藏股。 2.人力資源計畫:申請人要求的補助金額若超過1億5千萬美元,須額外說明將如何提供員工可負擔且高品質的子女托育服務。 3.建造期限:受補助者必須於DOC所決定的特定日期(target dates)前開始或完成廠房建造,否則DOC會視情況決定是否收回補助。 4.分潤:補助金額超過1億5千萬美元時,受補助者須與美國政府分享超過申請計畫中所預估之收益,但最高不超過直接補助金額的75%。 5.不得於特定國家擴產與進行研究:受補助者於10年內或與DOC合意的期間內,除特定情況下(15 U.S.C. § 4652(a)(6)(C)),不得於特定國家,如中國,進行大規模半導體製造的擴產(material expansion)、聯合研究(joint research)或技術授權(technology licensing),違反者將會被DOC收回全額補助。
歐盟推出給在中華區企業參考之網路犯罪與營業秘密保護指南歐盟執委會(European Commission)設有6區域中小企業智慧財產服務台(IP SME Helpdesk),其中歐洲智慧財產服務台(European IP Helpdesk)以及中華區小企業智慧財產服務台(China IP SME Helpdesk)於2022年9月聯合推出「網路犯罪與營業秘密保護指南」(Cybercrimes and trade secret protection : guide,下稱本指南),最大特色之處即在企業如何回應營業秘密遭網路竊取時之事後應對手段。 中華區中小企業智慧財產服務台透過提供免費資訊服務,支援歐盟(EU)中小企業(SME)在中國大陸、香港、澳門和臺灣保護和執行其智慧財產權(IPR),陸續發布如2020年「保護你在中華區的營業秘密」(Protecting your trade secrets in China)等一系列指導企業如何於中華區保護智財之指南。 本指南首先揭示企業營業秘密之事前保護手段,包括(1)技術手段:加強網路安全(加密資料、安裝防毒軟體、辨識雲端風險、制定網路安全策略)以及利用區塊鏈技術作為資料、證據保存的手段;(2)內外部人員管制手段:內部員工培訓與管理、第三方(市場、競爭對手)監控。而營業秘密遭竊之事後應對手段,包括(1)回應手段:確認資訊外洩原因、建立緊急處理機制(回報、蒐證流程)、採取法律步驟;(2)回復手段:控制損害(端視營業秘密是否被公開而有不同做法)、亡羊補牢(重新檢視企業智財布局、資安措施、緊急處理計畫),對於在中華區之企業,本指南作法具參考價值之外,資策會科法所發布之營業秘密管理指針2.0版亦可同步參考。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
歐盟人工智慧辦公室發布「通用人工智慧實踐守則」草案,更進一步闡釋《人工智慧法》之監管規範.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 歐盟人工智慧辦公室(European AI Office)於2024 年 11 月 14 日發布「通用人工智慧實踐守則」(General-Purpose AI Code of Practice)草案,針對《人工智慧法》(Artificial Intelligence Act, AIA)當中有關通用人工智慧(General Purpose Artificial Intelligence, GPAI)之部分,更進一步闡釋相關規範。 本實踐守則草案主要分為4大部分,分別簡介如下: (1)緒論:描述本守則之4個基本目標,包含協助GPAI模型提供者履行義務、促進理解人工智慧價值鏈(value chain)、妥適保障智慧財產權、有效評估且緩解系統性風險(systemic risks)。 (2)GPAI模型提供者:有鑒於GPAI模型對於下游系統而言相當重要,此部分針對模型提供者訂定具體責任。不僅要求其提供訓練資料、模型架構、測試程序等說明文件,亦要求制定政策以規範模型用途防止濫用。另於智慧財產權方面,則要求GPAI模型提供者遵守「歐盟數位單一市場著作權指令」(Directive 2019/790/EC)之規定。 (3)系統性風險分類法(taxonomy):此部分定義GPAI模型之多種風險類別,諸如可能造成攻擊之資訊安全風險、影響民主之虛假資訊、特定族群之歧視、超出預期應用範圍之失控情形。 (4)高風險GPAI模型提供者:為防範系統性風險之危害,針對高風險GPAI模型提供者,本守則對其設立更高標準之義務。例如要求其於GPAI模型完整生命週期內持續評估風險並設計緩解措施。 本守則發布之次週,近千名利害關係人、歐盟成員國代表、國際觀察員即展開討論,透過參考此等回饋意見,預計將於2025年5月確定最終版本。
日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。