本文為「經濟部產業技術司科技專案成果」
日本國會於2021年2月9日正式提出「數位社會形成基本法草案」(デジタル社会形成基本法案),立法目的為提升國家競爭力、國民生活便利性,以建置一個「數位社會」,基本原則為降低數位落差,而降低數位落差之重要手段即包括日本印章制度之改革。 日本政府對印章制度之改革,可分為「取消蓋章制度」及「增加電子簽章使用率」二條路線。由於新冠疫情(COVID-19)影響全球工作型態,日本政府為推動電子化服務,考慮取消印章使用,因為其徒增商業活動成本,亦可能提升染疫風險。日本行政改革大臣河野太郎在2020年11月13日內閣會議後之記者會上即表示,約1萬5000種需要使用印章的行政服務中,絕大多數將取消蓋章制度。「數位社會形成基本法草案」亦預告將修改48部要求使用印章之法律,本草案及相關修法將於2021年9月正式通過施行。 電子簽章使用方面,日本在野黨聯盟於2020年6月提出「電子署名及認證業務法一部修正草案」(電子署名及び認証業務に関する法律の一部を改正する法律案)。依照現行規定,電子簽章須本人以一定方式簽署始可推定為真正,推定真正之條件過度嚴苛,便利性未優於實體蓋章,致使電子簽章使用普及度低落。本草案則降低推定門檻,僅須以特定電子方式簽署即有推定真正效力,使電子簽章簽署人身分驗證更為容易。目前法案仍在眾議院提案階段,尚未經國會表決通過,後續發展值得關注。
歐盟執委會啟動《關於標示與標籤AI生成內容之行為準則》之相關工作,以協助生成式AI之提供者與部署者履行其透明度義務2025年11月5日,歐盟執委會啟動《標示與標籤人工智慧生成內容之行為準則》(a code of practice on marking and labelling AI-generated content,下稱行為準則)之相關工作,預計將於2026年5月至6月間發布行為準則。此行為準則與《歐盟人工智慧法案》(EU AI Act)之透明度義務規定相關。這些規定旨於透過促進對資訊生態系的信任,降低虛假訊息、詐欺等風險。 《歐盟人工智慧法案》第50條第2項及第4項之透明度義務,分別規定 1. 「『提供』生成音檔、圖像、影片或文本內容的AI系統(包括通用AI系統)」的提供者(Providers),應確保其輸出係以機器可讀的形式標示(marked),且可被識別屬於AI所生成或竄改(manipulated)的內容。 2. 「『使用』AI系統生成或竄改以構成深度偽造之影像、音訊或影片內容」的部署者(Deployers),應揭露該內容係AI所生成或竄改。 前述透明度義務預計於2026年8月生效。 後續由歐盟AI辦公室之獨立專家透過公眾資訊與徵選利害關係人意見等方式,推動起草行為準則。此行為準則不具強制性,旨於協助AI系統提供者更有效地履行其透明度義務,且可協助使用深偽技術或AI生成內容的使用者清楚地揭露其內容涉及AI參與,尤其是當向公眾通報公共利益相關事項時。 AI應用蓬勃發展,同時AI也可能生成錯誤、虛構的內容,實務上難以憑藉個人的學識經驗區分AI幻覺。前文提及透過標示AI生成的內容,以避免假訊息孳生。倘企業在資料源頭以標示等手段控管其所使用之AI的訓練資料,確保資料來源真實可信,將有助於AI句句有理、正向影響企業決策。企業可以參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,從資料源頭強化數位資料生命週期之管理。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
荷蘭公司控《中國好聲音》商標侵權,索賠300萬北京法院於2016年3月17日開始審理關於「夢想強音文化傳播有限公司」和「北京正議天下文化傳媒公司」未經授權使用荷蘭Talpa公司商標一案。 Talpa公司主要業務為開發、製作電視節目模式,〈The Voice of〉是該公司開發的一款歌唱比賽真人秀電視節目模式,為該公司知名產品。Talpa已向中國、澳州、美國、歐盟等在內約70個國家,註冊了「The Voice of 」商標,商標圖示為一隻手拿麥克風之圖像。 《中國好聲音》製作單位於2012年向荷蘭Talpa 買下節目模式與商標圖示,用以製作音樂真人秀《中國好聲音》;今年Talpa並未與其續約,故《中國好聲音》製作單位未取得Talpa公司商標專用權。 惟負責《中國好聲音》第五季海選活動之夢想強音文化傳播公司和北京正議天下文化傳媒公司,在好聲音全國海選活動與宣傳中,大量使用與Talpa註冊商標幾乎相同的圖形及文字;Talpa公司認為,此為類似商品上使用與註冊商標相同或近似商標行為,已造成消費者混淆,依中國大陸人民共和國商標法第57條,構成侵害商標專用權。據此,Talpa公司要求上開兩間公司立即停止商標侵權行為,並要求登報道歉與連帶賠償律師費、公證費、翻譯費及各項損失300萬元。 本文同步刊登於TIPS網站(http://www.tips.org.tw)
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。