2017年5月,馬克宏政府上任後,積極推動新興創新技術,以期將法國建設為新創國度。在此施政方針下,政府於2018年間提出「企業成長與轉型法案」(The PACTE draft Bill),並於2019年4月11日經法國國民議會通過,係為《企業成長與轉型法》(La loi PACTE)。
本法主要針對六大議題做改革,包含:企業成長及交接程序、擴增企業社會責任及員工參與率、資金、數位轉型及創新、行政流程簡化、提高國際競爭力。在「數位轉型及創新」部分,該法為「首次代幣發行(Initial Coin Offering, ICO)」和「數位資產服務提供者(Digital Assets Services Providers, DASP)」建立一法律框架,其主要制度內容,大抵有四:
(一) ICO之選擇性憑證(Optional visa):
ICO發起人在符合一定要件時,「得」向法國金融市場管理局(Autoritédesmarchésfinanciers, AMF)繳交相關資訊文件,以獲憑證;如未為之,募資仍屬合法,惟不得公開徵求資金、發起資助,僅可進行廣告活動。 再者,獲得選擇性憑證必須符合以下要件,包含:
(二) 數位資產服務提供者之選擇性特許(Optional license):
數位資產服務提供者,「得」主動向AMF申請特許並受其監督;如未為之,仍屬合法,惟不得公開徵求資金、發起資助,僅可進行廣告活動。
然而,須注意的是,無論服務提供者是否申請特許,凡「向第三方提供數位資產保管服務」或「買受數位資產以換取法定貨幣」者,皆須至AMF辦理註冊事宜。
(三) 允許二種資金可投資於數位資產:
該法指出,「符合市場流通性和估價規則之專業投資基金」和「專業私募股權投資基金」可投資於數位資產。
(四) 強化AMF之監管權力:
該法賦予主管機關AMF一定之監管權力,包含:
澳洲網路安全專員(eSafety Commissioner)於2025年10月啟動「社群媒體年齡限制專區」(Social Media Age Restrictions Hub),以落實2024年11月通過的線上安全法(Online Safety Act 2021)修正案。該次修正納入「社群媒體最低年齡」(Social Media Minimum Age, SMMA)框架之規定,以全面保障澳洲未滿16 歲的兒童及青少年。為落實SMMA,透過延緩取得帳號方式,而非全面禁止使用,以減輕青少年因登入帳號面臨的壓力及風險,從而維護其身心健康與福祉。 2025年12月10日受年齡限制的社群媒體平台必須採取合理措施,防止16歲以下的青少年建立或保留帳戶。eSafety 針對合理措施細節發布SMMA監管指引,並強調平台的合理措施不得僅依賴使用者自我申報年齡或出生日期,亦即要求業者透過嚴格的年齡驗證機制,限制特定年齡層的使用權限。eSafety調查顯示,儘管存在年齡限制,96%的10至15歲兒少使用過社群媒體,此現象凸顯強化業者責任的重要性。 為能更完整保護兒少隱私,線上安全法修正案另一重點在於授權澳洲資訊專員辦公室(Office of the Australian Information Commissioner)制定兒童線上隱私準則(Children's Online Privacy Code),確立以兒童最佳利益為核心的隱私保護標準,並規範線上服務應如何遵循澳洲隱私原則,該準則預計於2026年12月生效。此外,eSafety亦提供針對家長與青少年準備指南(Get-ready guide),協助其適應數位時代下的兒少保護新規定。
美國法院將考慮命Google提交相關資料美國布希政府為捍衛1998兒童線上保護法(1998 Child Online Protection Act),要求法院命Google提交有關民眾使用該公司之搜尋引擎所輸入之關鍵字資料,以證明透過搜尋引擎,兒童使用電腦連結到色情網站並非不易。但是,Google主張此將會危及其使用者個人的隱私以及其營業秘密。 一名負責審理此案的法官於日前表示,其將會考量政府蒐集此等資料的需求以及Google之使用者的隱私保護議題,且其可能會允許司法部 (Justice Department) 可以接近使用 (access) 一部分由Google所建立的網站連結目錄,但並不是Google使用者所輸入的關鍵字資料。
美國FTC表示 將檢視網路中立性此一議題美國聯邦交易委員會主席 Deborah Platt Majoras 於日前一場會議中表示, FTC 將成立網路接取工作小組 (Internet Access Task Force) ,負責檢視因科技發展所引發的議題以及法規的發展方向。除此之外,此一工作小組亦將針對近期來爭議不斷的網路中立性 (Net Neutrality) 進行檢視。 Majoras 表示對於是否立法規範網路,宜謹慎加以考量之,因為法規的影響深遠且長久。在缺乏明顯的證據證明市場失靈或消費者有受到損害的情況下,主管機關不宜採取任何法制措施規範市場參與者的行為。對於任何網路中立性或相類似的立法,宜考量其對於現有寬頻平台及市場環境的影響,以及此等立法對於產業未來創新與投資的影響。而關於網路中立性 (Net Neutrality) 之立法需求及細節,將由網路接取工作小組負責檢視之,其後續發展有待未來更進一步的觀察。
歐盟人工智慧辦公室發布「通用人工智慧實踐守則」草案,更進一步闡釋《人工智慧法》之監管規範.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 歐盟人工智慧辦公室(European AI Office)於2024 年 11 月 14 日發布「通用人工智慧實踐守則」(General-Purpose AI Code of Practice)草案,針對《人工智慧法》(Artificial Intelligence Act, AIA)當中有關通用人工智慧(General Purpose Artificial Intelligence, GPAI)之部分,更進一步闡釋相關規範。 本實踐守則草案主要分為4大部分,分別簡介如下: (1)緒論:描述本守則之4個基本目標,包含協助GPAI模型提供者履行義務、促進理解人工智慧價值鏈(value chain)、妥適保障智慧財產權、有效評估且緩解系統性風險(systemic risks)。 (2)GPAI模型提供者:有鑒於GPAI模型對於下游系統而言相當重要,此部分針對模型提供者訂定具體責任。不僅要求其提供訓練資料、模型架構、測試程序等說明文件,亦要求制定政策以規範模型用途防止濫用。另於智慧財產權方面,則要求GPAI模型提供者遵守「歐盟數位單一市場著作權指令」(Directive 2019/790/EC)之規定。 (3)系統性風險分類法(taxonomy):此部分定義GPAI模型之多種風險類別,諸如可能造成攻擊之資訊安全風險、影響民主之虛假資訊、特定族群之歧視、超出預期應用範圍之失控情形。 (4)高風險GPAI模型提供者:為防範系統性風險之危害,針對高風險GPAI模型提供者,本守則對其設立更高標準之義務。例如要求其於GPAI模型完整生命週期內持續評估風險並設計緩解措施。 本守則發布之次週,近千名利害關係人、歐盟成員國代表、國際觀察員即展開討論,透過參考此等回饋意見,預計將於2025年5月確定最終版本。