本文為「經濟部產業技術司科技專案成果」
著作權集體管理團體條例(集管條例)自2010年2月10日公布施行以來,終於今年(2019)5月中旬展開修法公聽會,智慧局提出三大項修法目的:「一、強化專責機關監督輔導;二、提升集管團體公信力與透明度;三、健全著作權授權市場環境。」依此分別提出修正條文。 其中,關於集管團體的財務治理透明化的規定,智慧局參考歐盟指令與德國集管條例,增訂集管團體之資產負債表、收支決算表、現金流量表等財務報表之揭露的法律義務(修正第21條第1項),且「應上網供公眾查閱」(增訂第22條第2項),係為建立集管團體公信力並強化良善治理與健全體質。 在場集管團體持不同意見,認集管團體僅係對身為會員的權利人以及利用人負責,且每年均已被主管機關與會員檢視相關報表,似無公開上網讓不特定大眾開放查閱之理。利用人則提出「重複管理」是須要被解決的議題,以授權移轉的實務問題舉例,故希望未來修新法有即時性的權利與管理的資訊揭露。權利人則反應授權金分配不透明,建議以資訊化的方式讓報酬分配機制透明化,並可應用區塊鍊技術達成之。
英國推動「公共緊急警報:行動通訊預警試驗」實證服務為試驗導入智慧防救災各項新興技術與機制,英國國民緊急事務秘書處 (Civil Contingencies Secretariat, CCS) 於2013年秋天分別對北約克郡 (North Yorkshire)、格拉斯哥 (Glasgow) 和薩福克郡 (Suffolk) 三地區進行共三次的「公共緊急警報:行動通訊預警試驗」(Public emergency alerts: mobile alerting trial)。由於英國已有92%民眾具有行動電話,並以隨時得接收訊息為出發點,進行有別於傳統預警系統之公共緊急預警系統試驗。此試驗由國民緊急事務秘書處與O2、Vodafone和EE三間行動網路業者 (mobile network operators) 和地方政府應變單位合作,雖係以行動電話為試驗主軸,但試驗重點則以政府或地方政府應變單位「不知道」民眾個人電話,亦不要求民眾簽署才能取得此次試驗訊息為主。 此三次試驗手段有二,包括「小型區域廣播服務」 (cell Broadcast service, CBS),係以單點對多點發送緊急簡訊,以及「以地區為基礎的簡訊」 (location-based SMS messaging),以群組方式發送簡訊至指定地區用戶,二種發佈緊急訊息的方法為試驗。 北約克郡 (North Yorkshire)主要與EE進行發送緊急水災警報系統,對於廣播訊息發送的時間或調整時間長短以供傳送「泡沫警報」(表訊息多寡)到地域寬廣或數個地區而言,是有效的手段。格拉斯哥 (Glasgow)地區為蘇格蘭最大城市,與O2業者進行最大型的試驗,發送數千緊急訊息給民眾。而薩福克郡(Suffolk)則是由於該區不僅於市中心具兩個火車站,遊客也眾多,因此試驗場域以住商混合住宅區及處於該區的人民為主。除小型區域廣播服務和以地區為基礎的簡訊外,薩福克郡也與社交網路Twitter合作,共傳送三種訊息試驗。 透過上述試驗,公共緊急警報:行動通訊預警試驗計畫報告也提出針對隱私與對於電信服務業者於災害發生當下之通訊服務義務未來應制訂相關規範,以及應統一發送訊息之通訊警報協定標準等建議。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
日本立法保護及促進重要經濟安全資訊之利用日本國會2024年5月10日通過、同月17日公布《重要經濟安全資訊保護及活用法》(重要経済安保情報の保護及び活用に関する法律,以下簡稱經安資訊保護法),建立安全許可(セキュリティ・クリアランス)制度,規範政府指定重要經濟安全資訊(以下簡稱經安資訊)、向業者提供經安資訊之方式,以及可近用經安資訊之人員資格等事項,以保護與重要經濟基礎設施有關,外流可能影響國家及國民安全之重要資訊,並同時促進此類資訊之利用。 根據經安資訊保護法規定,行政機關首長得指定機關業務相關之重要資訊,如與關鍵基礎設施、關鍵原物料相關,外洩可能影響經濟安全之資訊為經安資訊。並得於下列情形,向其他行政機關、立法機關及司法機關、特定民間業者提供經安資訊: 1.其他行政機關:有利用經安資訊之必要時。 2.立法機關及司法機關:提供資訊對經濟安全不會有顯著影響時。 3.特定民間業者:為促進有助於經濟安全保障之行為,必要時得依契約向符合保安基準之業者提供經安資訊。 此外,經安資訊保護法進一步規定近用、處理經安資訊者,須通過適格性評價(適性評価),評價重點包括當事人犯罪紀錄、藥物濫用紀錄、有無精神疾病、有無酗酒、信用狀況等。由於上述內容涉及當事人隱私,故行政機關進行適格性評價前,須取得當事人同意。