如何確保兒童上網安全,為歐盟數位議程(Digital Agenda)的七大目標之一。而近年來網路內容蓬勃與快速發展,更大幅加速了兒童上網的趨勢。據歐盟執委會於2011年12月的公開資料顯示(IP/11/1485),歐洲兒童平均7歲即開始接觸網路。目前有超過38%的9-12歲兒童在社交網站上有個人資訊,有30%以上的兒童是藉由行動裝置上網。如此高的上網比率,讓各業者有共識以提供兒童更好的上網環境。由蘋果、微軟、Google等跨國企業為首的二十餘家業者組成了自律組織,以提供歐盟地區的兒童更好網路內容環境而努力。
該自律聯盟於2011年12月正式成立,並以五個面向採取相關行動:簡單且強大的工具-能夠搜尋於任何裝置上可能對孩童有害的內容;分齡隱私設定-使用者可限定公布資訊予特定族群;更廣泛的內容分級:提供家長易於理解的年齡內容分級;更廣泛的家長控制工具-積極推動使用者有善的工具;兒童色情內容有效移除-與執法單位與保護熱線等積極合作,將兒童色情內容快速下架。
各業者承諾就其營業項目、產品、服務內容等皆須符合此自律規範,並成立工作小組以協助歐盟執委會處理相關議題。
世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。
澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。
歐盟報告提出工業4.0帶來的三大變遷歐盟執委會下設機構策略與評估服務中心(CSES)在2016年2月向歐洲議會提出歐洲落實工業4.0政策執行分析報告,指出執行工業4.0帶來的科技、社會、以及商業環境變遷: (1)科技變遷 數位化將對中小企業帶來挑戰,其中涉及之法律議題包括:促進數位安全致生之企業成本或風險、智慧財產權保護、個人資料與隱私、環境保護、健康和安全等。 (2)社會變遷 企業應用工業4.0技術時將面臨工作方式上之調整,整體工業4.0技術分佈不均則有可能導致集中化競爭的情形增加。 (3)商業環境變遷 隨著中小企業參與供應鏈,將帶來成本、風險、缺乏彈性、缺乏政策性的單獨運作等各方面挑戰,而重點在於藉由標準化串起整體產業,與其他的企業競爭。 我國在2016年7月通過「智慧機械產業推動方案」,以精密機械之推動成果及我國資通訊科技能量為基礎,導入智慧化相關技術,建構智慧機械產業新生態體系,並且預期能打通供需生產資訊鏈,提升人均製造力,同時併以連結在地、連結未來、連結國際為推動策略主軸,其中相關的法律議題、以及對於社會或商業環境帶來的變遷影響評估,自屬重要。
Codex研提進口食品含有未經核准之GMO含量的技術指導原則由聯合國農糧組織及世界衛生組織共同成立的The Codex Alimentarius Commission (Codex),刻正研提一份與GMO有關的重要技術指導原則,以協助各國評估並管控進口食品是否含有未經核准的GMO或由未經核准的GMO所製程的風險,藉此降低食品貿易的障礙。 關於未經核准的GMO,目前歐盟採取的零容忍度政策(zero-tolerance policy),亦即,進口之食品或飼料中,絕對不能含有未經核准的GMO或由未經核准的GMO所製程,至於一般所知的歐盟0.9%的GMO標示義務,是適用在經依法核准上市的GMO,若因技術上不可避免的原因而使非基改產品含有此GMO之可容忍界線。 根據Codex調查,許多GMO的上市審查在歐盟受到延宕,但這些GMO在歐盟以外其實很多都已經被其他國家核准,或歐盟的技術審查單位—食品安全管理局(European Food Safety Authority, EFSA)也已提出正面的安全評估意見,但歐盟執委會卻遲遲未完成行政審查,造成在歐盟進口的食品或飼料中若含有這些GMO,即被認定為未經核准而影響產品之進口。 鑑於歐盟的GMO管理與出口國的GMO管理有重大的制度面差異,Codex認為此一制度面的衝突若不尋求解決,未來將越演越烈,影響的作物範圍也會越來越廣,因而Codex才會思考制定相關的技術指導原則,解決某GMO可能在一個或多個國家已經被核准上市,但在進口國還未經核准上市,而進口非基改食品或飼料中卻含有這些GMO的問題,目前Codex預計在2008年7月提出相關的技術指導原則建議。