德國總理梅克爾(Angela Merkel)所領導的內閣於2017年4月5日通過社群媒體管理草案(Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken),該法案要求社群媒體必須積極管理使用者散布的仇恨言論及假消息,未善盡義務的社群媒體最高可裁罰5千萬歐元。 德國早於2015年12月已與Facebook、Google及Twitter等知名社群網站達成協議,必須在24小時內刪除網站上的不實或違法言論。但根據jugendschutz.net組織公布的數據,Facebook刪除了39%違法內容、Twitter只刪除了1%違法訊息,而Google的Youtube則需要以其他工具進行實測。由於社群媒體自我管理的效果不彰,促使德國政府認為在業者自律之外,必須要制定法律與罰則讓社群媒體負起責任,積極管理網站上使用者的不實與違法言論。 本草案重點包括: 適用範圍:本草案適用於電信媒體服務提供商,且該提供商之網路平台係以營利為目的,允許使用者與其他使用者共享訊息或對大眾分享任何資訊。 社群媒體必須設立24小時受理案件之投訴管道。 接到投訴後,社群媒體必須在24小時內刪除「明顯違法」之內容,其他有爭議的內容必須在7天內確認並刪除違法內容。 社群媒體必須定期提供主管機關其投訴之處置報告。 本草案已送交德國立法機關進行立法程序,但反對者認為一旦通過立法,可能會對言論自由產生不良影響,並抑制網路言論的發表。德國對於社群媒體之管理,值得持續關注。
提升晶圓競爭力,維護國家領導性:2020年《美國晶圓代工業法案》鑒於中國大陸製造微電子之能力,日益趨近美國;為建立美國在科技領域之領導地位,與振興全球微電子產業。以美國參議員Charles E. Schumer和Tom Bryant Cotton為首,於2020年6月提出《美國晶圓代工業法案》(American Foundries Act)。法案重點為:(1)資助發展微電子產業與研發設備;(2)創建、擴展與現代化提升微電子產業之設備,與維護國家安全之能力;(3)增加預算確保美國在微電子產業之領先地位;(4)訂定國家微電子之研發計畫;(5)建置產業諮詢委員會;(6)訂定多邊出口控制計畫;(7)禁止資金與國外競爭者相關;(8)限制計畫、承包商、分包商,和預算來源為國防部者採購國內微電子設計與代工服務。 該法案授權國防部長及國家安全局長基於國家安全之需求,由國防部資助微電子產業的建構、研究與發展。資助、輔助微電子產業在製造、裝備、檢測、外觀與研發上的發展,以及在採購設備和智慧財產權上的現代化。此外,美、中的競爭亦延伸至國家關鍵科技保護的面向。該法案規定倘微電子公司在敏感技術的研發,技術的許可、轉讓或投資,係中國政府或其他國際競爭者所有、受其控制或影響,美國政府將收回對該公司之資助,並禁止其參與計畫。 在商業製造上,亦須降低風險,包含對微電子研發的分類和出口管制,確認管理流程,以及減輕供應鏈的安全風險;且須注意在國家安全方面的要求。並為確保美國在微電子產業上的領導地位,國家經費授權國防高階研究計畫機構(the Defense Advanced Research Projects Agency)拓展電子復興計畫(the Electronics Resurgence Initiative),發展具破壞性的微電子科技,包含發展足以支持國產微電子企業的研究量能;並由國家科學基金會(the National Science Foundation)、能源局(the Department of Energy)與國家標準技術研究所(National Institute of Standards and Technology),負責執行微電子的科學研究與開發。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。
網路賭博是否應加以規範?-以美國「違法網路賭博執行法案」為借鏡