加拿大對於日益嚴重之網路霸凌及網路犯罪,甚至青少年因網路霸凌而自殺案件頻傳,為免此種悲劇再發生,加拿大政府擬訂之「保護加拿大國民遠離網路犯罪法」(Protecting Canadians from Online Crime Act,簡稱Bill C-13),於2015年3月10日生效。
此項法案係修正刑法、競爭法及證據法,法案內容如下:
1.適用對象:不分是否成年,皆有適用。
2.增修內容:
(1) 補充修訂非自願的親密圖片散佈法令,授權法官得從網路上移除這些圖像及收取回復費用,得以沒收財產及下達擔保命令,以限制加害人使用電腦或網路就此類圖像之散布。
(2)賦予保存請求權和命令之權力,強制保全電子證據。
(3)新訂法院可下達提供命令,強制相關義務人提供通訊傳輸、交易位置、個人及相關事物資訊。
(4)授權延長關於使用電信傳輸相關資料之調查權。
(5)授權與法律分配利害關係相關之交易、個人與事物等做為追蹤調查對象。
(6)簡化關於取得關於截取私人通訊之法官授權及命令程序。
(7)修訂加拿大證據法,以確保加害人之配偶得為被害人證人。
惟就本次修訂,有反對意見認為可能會擴張國家調查權,而侵害人民隱私。
「敏感科技」的普遍定義,係指若流出境外,將損害特定國家之安全或其整體經濟競爭優勢,具關鍵性或敏感性的高科技研發成果或資料,在部分法制政策與公眾論述中,亦被稱為關鍵技術或核心科技等。基此,保護敏感科技、避免相關資訊洩漏於國外的制度性目的,在於藉由維持關鍵技術帶來的科技優勢,保護持有該項科技之國家的國家安全與整體經濟競爭力。 各國立法例針對敏感科技建立的技術保護制度框架,多採分散型立法的模式,亦即,保護敏感科技不致外流的管制規範,分別存在於數個不同領域的法律或行政命令當中。這些法令基本上可區分成五個類型,分別為國家機密保護,貨物(技術)之出口管制、外國投資審查機制、政府資助研發成果保護措施、以及營業秘密保護法制,而我國法亦是採取這種立法架構。目前世界主要先進國家當中,有針對敏感科技保護議題設立專法者,則屬韓國的「防止產業技術外流及產業技術保護法」,由產業技術保護委員會作為主管機關,依法指定「國家核心科技」,但為避免管制措施造成自由市場經濟的過度限制,故該法規範指定應在必要的最小限度內為之。
韓國簽署網路漫畫著作權保護相關協議韓國創意內容振興院(Korea Creative Content Agency, KOCCA)、韓國著作權保護院(Korea Copyright Protection Agency, KCOPA)及韓國漫畫家協會,為杜絕非法傳播網路漫畫,營造網路漫畫著作權保護環境,保護網路漫畫著作權,已於2023年3月10日宣布與相關機構簽署協議,創造著作權保護環境,以營造適當之網路漫畫消費文化。 根據2022年發佈之《2022年上半年內容產業趨勢分析報告》顯示,2022年上半年,網路動漫內容產業出口金額比2021年增長27.9%,約 5600 萬美元(725 億韓元),相關產業正穩定增長中。然而,截至2021年,網路漫畫非法發行市場規模卻比起2021年增長53%,達到8427億韓元,表明非法發行造成的損失規模正在迅速擴大。 依據網路漫畫著作權保護協議,相關單位將共享現有網路漫畫著作權保護運作之經驗及必要資源,規劃三方合作提高網路漫畫用戶著作權保護意識之活動宣傳、共享網路漫畫著作權保護資料,相互合作查明非法使用網路漫畫的國內外實際情況,推動網路漫畫著作權產業正向運作。 漫畫產業之串流時代已逐漸形成,尤以韓國及中國大陸成長迅速,侵權問題亦隨之攀升,如何在快速發展之內容產業中,互通著作權資訊及提前預防侵權,係產業需關注之問題。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
歐盟行動電視管制架構及發展策略-以市場進入管制為中心 澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。