美國FCC在2011年12月22日發布了新廣電事業所有權限制規則的法規制定建議通知(Notice of proposed rulemaking, NPRM),進一步降低包括高功率無線電視台、廣播電台等地區性媒體集中、全國無線電視網所有權集中、以及地區性報社與無線電視台的跨媒體集中之管制密度。
廣電事業所有權限制規則自2000年之後歷經多次修正與涉訟,FCC於2003年的修正,於遭到2004年遭到聯邦第三巡迴法院的部份廢棄;2007年與2008年的修正,亦同樣遭到同法院的部份廢棄。而FCC在經2010年的四年一度檢視、並委託外界研究之後,再於此次進行修正、並諮詢各界。
FCC認為,寬頻網路確實使消費者轉向網路或行動平台接收新內容與影音節目,也連帶使媒體市場結構大幅變化。但新媒體目前尚未如傳統媒體般無所不在,主因是美國寬頻上網仍未普及,寬頻普及率僅70%;並有1400萬人無法接取寬頻基礎設施。而線上影音串流或下載節目皆要求最小寬頻頻寬,阻礙了新媒體的普及,因此廣電事業所有權限制規則對於維護競爭、在地化、多樣性、與保障少數族群、身心障礙者和女性的政策目標上,仍有存在必要。
此次NPRM重點如下:
1、維持地區無線電視所有權限制規則(Local Television Ownership Rule);
2、維持地區報社/地區無線電視跨媒體所有權限制規則(Newspaper/Broadcast Cross-Ownership Rule);
3、因既有地區無線電視、地區廣播所有權限制規則已足夠維護政策目標,廢除地區廣播電台/地區無線電視台跨媒體所有權限制規則(Radio/Television Cross-Ownership Rule);
4、維持複數全國無線電視網所有權限制規則(Dual Network Rule); 新訂少數族群與女性所有權保障規範。
中國國務院發布AI行動意見,全面推動智慧應用加速現代化建設 資訊工業策進會科技法律研究所 2025年12月10日 隨著人工智慧(下稱AI)技術的快速發展,全球各國政府均積極推動AI在百工百業各領域的應用,以提升國家創新力、產業競爭力與社會治理效能,中國政府亦是如此。同時,受地緣政治及經貿競爭的影響,中國政府為強化國家供應鏈安全與韌性,由政府主導加速現代化建設,以推動智慧社會新型態的發展為目標。 壹、事件摘要 中國國務院於2025年8月26日發布「關於深入實施人工智能+行動的意見」(國發[2025〕11號)(下稱行動意見)[1],旨在全面推動AI應用於各行各業,以提升國內產業生產力與創新量能,並促進人機協作的智慧社會新型態,作為推動「中國式現代化」發展之重要建設。 貳、行動意見重點內容 於該行動意見中,中國國務院提出三項階段性目標,分別為: 一、 2027年前:AI應用普及率達70%以上 推動科技、產業、消費、民生、治理與全球合作的6大核心領域全面結合AI應用,擴大AI使用普及率達70%以上,以達加速公共治理與產業創新之成效。 二、 2030年前:AI應用普及率達90%以上 強化前述6大核心領域,持續擴大AI使用普及率可達90%以上,實現研發成果共享之效益。 三、 2035年前:AI應用普及率達100% 建立全面人機協作之智慧經濟與社會新型態,作為國家現代化建設之重要基礎。 為實現前述三階段目標,中國政府針對6大核心領域提出具體行動方向,重點整理如下: 一、 AI+科學技術 為加速科研進程並推動大模型建設與應用,將強化基礎科學研究平台和重要科技基礎建設的智慧化升級,打造開放式且高品質的共享資料集,以促進AI跨領域的結合發展。同時,亦積極促進AI帶動研發模式創新與效能的提升,以加速技術研發和產品應用落地。 二、 AI+產業發展 鼓勵企業將AI導入內部策略規劃、組織架構與業務流程設計等,以建構創新的商業模式;並在技術、產品與服務體系中推動智慧化應用,強化供應鏈各環節與AI的協作,同時最佳化工業、農業及服務業的生產與服務模式,藉以帶動傳統產業轉型升級,建構新型生態體系並加速整體產能提升。 三、 AI+消費增質 透過推動AI與服務的結合,建立多元及智慧化的服務模式,加速發展智慧消費相關基礎建設;此外,推動AI應用於各類商品與設備,重點發展智慧聯網汽車、智慧機器人、智慧家居、智慧穿戴等終端商品,加速技術融合與產品創新,以提升人民生活的品質。 四、 AI+民生福祉 透過推動人機協作的模式,提供新型的工作、學習與生活型態,建立更具智慧化的社會發展模式。例如,企業雇主可藉由AI協助建立新型組織架構和管理模式,提升傳統職務執行之效率,亦或是透過AI進行技能培訓以因應勞動力短缺之情形;學校教育面向則可推動AI融入教學教材,推動更加多元與互動之學習生態;生活方面則計劃推動AI健康照護、社會服務等領域廣泛應用,全面提升公共服務與生活品質,形成具包容性的智慧化社會。 五、 AI+智慧治理 推動AI全面導入社會治理過程,以促進市政管理、政務服務及公共資源運作的智慧化轉型,並利用AI強化公共安全與網路安全治理能力,完善國家安全防護的機制;於生態層面,將運用AI推動綠色永續與人機協作,強化於環境與碳管理領域的監測、預測及治理能力,促進高效及精準的治理模式。 六、 AI+全球合作 推動AI的普及與共向,建立開放生態系、強化運算能力、資料與人才領域的國際合作,共同提升全球南方AI基礎建設,縮減全球數位落差,協助各國可平等參與智慧化發展過程,共同因應AI應用相關風險,確保技術發展安全且可信賴地發展。 參、事件評析 從上述中國國務院發布之行動意見可知,其目標在於藉由強化安全及可信賴的AI,並促進AI應用於各領域的發展,以建構可持續性的智慧化生態系,提升社會治理效率與全民生活的品質,以利國家經濟與科技的共同發展。 然而,該行動意見雖明確提出國家整體目標及治理方向,為相關領域的智慧化發展提供指引,惟對於各項目標尚未提出可操作性措施、具體政策細節,或對產官學各單位可獲得的政府資源、技術支持與協助等進行明確規範。故後續仍需持續關注相應政策措施及配套資源的發布,以評估其實際推動AI應用之成效。 [1]《国务院关于深入实施“人工智能+”行动的意见》(國發[2025]11号)。
英國取法美國國防先進研發署研發補助機制,提出先進研究發明署法案英國商業、能源暨產業策略部(Department for Business, Energy and Industrial Strategy, BEIS)於2021年3月2日向英國國會提交「先進研究發明署法案」(The Advanced Research and Invention Agency Bill),作為英國政府設立獨立研究機構「先進研究發明署」(Advanced Research and Invention Agency, ARIA)的法源依據,用以補助高風險、高報酬之前瞻科學與技術研究,將仍處於想像階段的新技術、發現、產品或服務化為現實。 本法案授予ARIA高度的自主性,使ARIA得以招攬世界頂尖的科學家與研究人員,規劃最具前瞻性與發展潛力的研究領域提供研發補助;同時也給予相較於其他研究機構更多容許失敗的彈性,並明確指出失敗是前瞻科學研究必然經歷的過程。ARIA對於研發資金的運用將因而獲得充分的自主性與彈性,包含對於研究計畫提供快速啟動基金與其他獎項做為激勵措施,或是依據研發進展即時決策是否延續或中止。 ARIA取法自美國國防先進研發署(Defense Advanced Research Projects Agency, DARPA),美國DARPA在網際網路、GPS等技術研發上的成就,直到近期支持針對COVID-19的mRNA疫苗及抗體療法從而取得重大進展,在在顯示了DARPA模式的可行性與重大影響力,而其成功的關鍵在於高度的自主性、靈活性以及最少的行政程序障礙,因此法案將允許ARIA不受政府採購相關限制、並免於政府資訊公開的義務,以減少行政程序對於研發進程的影響。但ARIA每年度仍須向國家審計署提供年度會計報告以作為政府對其最低限度的監督手段,除此之外,商業部長將有權中止與敵對勢力對象的研發合作或結束特定的研究計畫。
日本經產省於2015年1月15日提出《不正競爭防止法》中期報告書並預計將提出不正競爭防止法修正案為因應日本2014年接連發生重大營業秘密外洩之事件而使日本國內公司蒙受鉅額損失,日本經濟產業省於去年9月開始,積極地展開《不正競爭防止法》修法專家會議,並在2015年1月15日舉行的會議上,揭露了彙整各界公開意見後之《不正競爭防止法》中期報告書(中間とりまとめ),以作為未來修法方向之指引。 該報告書列出之修法方向區分為民事及刑事規定。第一,民事的修正重點有以下三點:(1) 減輕原告(受害企業)之舉證責任,而改由被告(非法使用營業秘密之企業)負擔;(2) 除斥期間之延長:將現行法規定之除斥期間,由10年延至20年;(3) 使用非法營業秘密而製造的物品,禁止轉讓或出口;以及新增邊境措施之規範。 第二,刑事的修正重點則有以下六點:(1) 擴大國外犯罪的處罰範圍:目前現行法僅規範「日本國內所管理之營業秘密」在國外「使用、開示」 之行為,未來將新增處罰在國外之「取得」營業秘密之行為;(2) 新增未遂犯規定,同時將繼續檢討新增共犯及教唆之處罰態樣;(3) 現行法僅規範竊取營業秘密者本人以及藉由前者直接不法取得營業秘密者為處罰對象,但鑒於智慧型手機、平版電腦等裝置(携帯情報通信端末)之普及,造成營業秘密的竊取及使用型態趨向多樣化,是故未來將新增第三人不法取得之相關處罰規定;(4) 使用非法營業秘密而製造的物品,禁止轉讓或出口:新增相關刑罰規定;(5) 法定刑之提高:目前個人最高罰金為1000萬日圓、企業則為3億日圓,未來預計調整罰金之上限;並且,將新增沒收犯罪收益及海外加重處罰之規定;(6) 擬由告訴乃論改為非告訴乃論。 綜上,經產省力爭在2015年1月26日開始的通常國會期間內,依上述之改正要點為基礎,正式提交《不正競爭防止法》之修正案,預計最快將於2016年開始實行新法 ,後續的立法進度,值得吾人持續關注。
韓國人工智慧風險管理趨勢研析韓國人工智慧風險管理趨勢研析 資訊工業策進會科技法律研究所 2020年6月25日 人工智慧技術正不斷地突飛猛進,後更因深度學習應用帶來令人難以置信的進步,迅速成為眾多產業轉型的重要推手。然而,當眾人專注於追求人工智慧的逐利時,也隱然意識到人工智慧與現實世界的互動,似已超越人類認知能力,或依當下技術知識經驗仍難加以掌握。以自駕車為例,其利用感測器感知外界進行影像辨識、理解預測進而做出決策的整體流程上,不論是在路人、車輛等圖像辨識、現場就路人及車輛行動之預測,乃至後端根據前階段路人、車輛行動預測與現在位置判斷最佳路徑的過程,處處是不可測的風險。申言之,從辨識正確率、現場狀況理解度至演算法決策來說,吾人所得掌控者有限。主因在於人工智慧的複雜與靈活性特色,實難通過統一概念加以界定。次者是人工智慧的自動化決策本身,事實上難以被確實地預見。甚至,就人工智慧可控性上,亦充斥各類不確定要素,特別是訓練資料偏差、又或設計者主觀意識之偏頗都可能造成預想之外的結果。 截至目前為止,人工智慧應用已然帶來已引發諸多風險議題,包含於開發、設計及製造端所論及之風險議題涵蓋歧視與偏見,如資料偏差、樣本資料結構性不平等[1]致使機器學習或有偏誤,進而影響判斷,產出具有歧視或偏見之結果[2];個人資料及隱私保護上,則係因人工智慧訓練對資料具有大量需求,涉及個人資料部分,將面臨蒐集(踐行告知程序)、處理和利用(於當事人同意之範圍內處理、利用)是否善盡保護義務與合乎法規要求;演算法黑箱帶來不透明的決策,難以預測與檢驗決策流程、判準是否有誤[3]。就此,考慮到人工智慧之重要性與風險,或有必要立基於風險預防理念進行相關風險控管,甚或以風險責任分擔角度,討論相關權責分配,以應對未來可能衍生的危害或重大風險。 人工智慧風險控管之法律基礎無法悖於倫理道德基礎。觀諸國際間討論,韓國早在2007年即已倡議機器人道德理念,並在2008年起接連有相關立法舉措。本文將以之為中心,探究其人工智慧在風險控管之相關立法政策措施,盼可從韓國做法中反思我國推行人工智慧風險管理之方向。 壹、事件摘要 一、韓國智慧機器人相關法制措施 (一)《智慧機器人發展和促進法》風險管控介紹 2008年9月韓國《智慧機器人發展和促進法》(지능형 로봇 개발 및 보급 촉진법)正式生效。該法旨在鋪設智慧機器人產業發展之法律基礎,包含在法律中嘗試引入智慧機器人定義(指通過識別外部環境並判斷狀況後自動運行之機器設備,包含機器設備運行所必要軟體),以此作為後續促進產業發展、規劃機器人責任歸屬或保險等討論之開展基礎;另外也以促進產業發展觀點,訂定產品安全開發與布建之支持法源依據;挹注國家科研能量確保技術穩定;建置智慧機器人產業分類系統,依此做為機器人產業統計基礎,為國家在機器人管理及政策提供相關數據。 其中,特別的是除了促進性規範外,亦首度於法律提出機器人倫理道德的概念,賦予主管機關訂定與「機器人倫理道德憲章」(로봇윤리헌장)相關內容之義務。 所謂「機器人倫理道德憲章」,係指針對智慧機器人功能及其智慧化發展,規範製造和使用人員之指導方針,以防杜危險發生並避免機器人不利於人類生活品質。換言之,機器人倫理道德憲章可認為是針對智慧機器人開發、製造、使用上的準則,盼可用以防止因智慧機器人功能而衍生之社會損害。就此,韓國工商部曾擬定《機器人倫理道德憲章草案》,可參考如下: 第一條(目標)機器人倫理道德憲章目標係為人類和機器人共存共榮,並確認以人類爲中心的倫理規範。 第二條(人與機器人的共同原則)人類和機器人應當維護相互之間生命的尊嚴、資訊和工程倫理。 第三條(人類倫理)人類在製造和使用機器人時,必須使用良好的方法判斷和決定。 第四條(機器人倫理)機器人是順從人類命令的朋友或是協助者、夥伴,不得傷害人類。 第五條(製造商倫理規範)機器人製造商有義務製造維護人類尊嚴之機器人,同時,必須承擔回收機器人、資訊保護義務。 第六條(使用者倫理)機器人使用者應當尊重機器人爲人類的朋友,禁止非法改造和濫用機器人。 第七條(實施的承諾)政府和地方政府應實施有效措施,以體現《憲章》的精神[4]。 觀察《智慧機器人發展和促進法》內涵,富有藉重法律效果與效能引領智慧機器人產業發展之精神,企圖形成政府政策借助立法促成經濟層面活動向上發展。然而,隨智慧機器人技術逐漸深入社會,韓國旋即意識到人工智慧在權益維護、風險管控上仍有進一步補強之必要,進而提出《機器人基本法草案》,並開展韓國在機器人倫理道德、歸責原則之相關討論,以順應社會整體的變革。 (二)《機器人基本法草案》 如前所述,意識到人工智慧發展已然滲入日常生活,有必要在機器人普及化的社會接受過程中,應對各類問題預先防範。韓國國會議員遂於2017年7月19日提出《機器人基本法草案》(로봇기본법)以反映機器人發展趨勢與問題。 《機器人基本法草案》主要目的是為機器人融入社會過程中的政策方向、原則進行引導,以有助於機器人產業健全發展。是以,該法在風險控管部分,通過二類做法予以調控,一是建立倫理道德準則之原則、二是嘗試提出歸責原則以釐清相關應用所生之爭議。 一者,藉道德倫理界線之提出使產業更為允當運用人工智慧。借用產品生命週期之概念,分就設計、製造以及使用者責任三階段規範。在設計階段,著重於產品內部構造、軟體介面設計的安全性,另就不侵犯人權及社會利益上,強調預先從設計確保產品永續性、倫理性及使用上的安全性;在製造階段,則從遵法性、說明義務及產品維護修繕責任等,揭示製造商在產品製造、銷售應行之事項;最後,則從使用者角度,以應用階段各項自律、他律規範,明示遵法義務與道德倫理原則,並特別指明宜避免過度成癮。 次者,在責任分配與歸屬上,於現行法令無以適用情況下,允許受損害者得向機器人之銷售者或提供者求償。然而,為免製造商或銷售者過度承擔賠償責任之風險,亦設置免責條款,規定當產品因缺陷致使損害發生,而該缺陷係以當時技術水準所無法發現之情況,或是該缺陷是製造商遵守當時機器人法令所規定標準所肇致,則將免除製造商之損害賠償責任。 綜合前述,《機器人基本法草案》在倫理道德及責任分配歸屬的風險管控上,提出諸多可資參考之方式,然而在基本法審議過程中,韓國政府認為雖有必要管制風險,卻不宜過早以立法手段介入遏止創新,而未能通過韓國國民議會。 (三)韓國人工智慧國家戰略 雖然《機器人基本法草案》未能立法通過,然而韓國相關立法脈絡已展現除關注於促進智慧機器人產業發展外,在倫理道德、責任上的風險調控亦不可偏廢態勢,且從智慧機器人進一步聚焦於人工智慧。 2019年12月第53屆總理會議(국무회의)[5],韓國擬定涵蓋科學資通訊技術部在內所有部會共同推動之「人工智慧國家戰略」(AI 국가전략)作為橫跨經濟和社會的創新專案[6],以攻守兼備方式發展人工智慧。分從技術、產業、社會三方面著手,為韓國發展人工智慧半導體產業取得先機,進而拔得在相關領域的頭籌;次者,完備先進資通訊技術基礎設施,借力人工智慧積極轉型為新世代數位政府;其三,從教育扎根,建設人工智慧教育體系以培植相關領域專業人才;第四,秉持「以人為本」精神發展人工智慧,建立人工智慧倫理原則、擴張就業安全網保障勞工,使人工智慧所產生之效益可散發至社會各個角落。預計通過該戰略,將可在2030年壯大韓國之數位競爭力,使人工智慧經濟產值增長至4550000億韓圜(約3800億美元),提升國民生活品質[7]。 整體而言,該戰略建立基於技術的立法、以人為本的道德以及改善整體社會法律體系三者為核心。基於技術的立法,如《信用資訊法》修訂,允許假名化資料利用,以鬆綁人工智慧資料應用需求,並平衡隱私保障;以人為本的道德,像是參考國際間道德倫理之標準,推行「人工智慧道德標準行動計畫」(AI 윤리기준 및 실천방안 마련),加速研擬建立在安全、責任或是擔保上的規範[8];改善整體社會法律體系,包含修正《國民就業援助法》擴大就業安全網,透過保險、教育、就業支援等方式協助受人工智慧衝擊影響之勞工、《就業政策基本法》中研擬為人工智慧業務建立相應人才教育。三者之推動,除帶動人工智慧產業蓬勃發展外,也兼顧社會層面道德、權益保障。 貳、重點說明 一、以剛性立法手段推進產業發展 觀察韓國,其人工智慧發展態度係以鼓勵為重。主因在於對企業來說,採用新興科技應用或可能囿於法遵成本、研發投資耗費過鉅、相關領域人才稀缺等多重因素而有所疑慮。有鑑於前開問題,韓國以正面態度,在風險控管措施上,嘗試藉由法規手段解消人工智慧發展所面臨之問題,即在賦予政府確實制訂與推進人工智慧發展政策責任,使業者可預期政府態度;次者,設置法律作為行政機關提供產品安全開發與布建支援依據,確保科研能量技術的穩定;再者,藉由智慧機器人分類系統建立產業管理與統計基礎,俾利後續依統計數據進行決策。 至於權益保障、風險如何評價及規範,雖有論者倡議另制定《機器人基本法草案》彌補《智慧機器人發展和促進法》於法律內部體系權利價值詮釋上的缺陷,然經立法成本與當時技術成熟度之衡量,並未過早規範技術之發展。 二、借軟性規範措施型塑兼容並顧之環境 另方面,觀察韓國在面對人工智慧機器人時的應對方式,發現在促進發展上,韓國無不餘力地大力採用剛性立法手段,以鋪設技術、投資所需之基礎建設及支援。而就尚難定論之技術風險管控,像是倫理道德、歸責原則調控等,考量技術尚未臻成熟,實難以剛性立法方式加之管理,而有以政策方式先試先行之傾向,形塑具有包容彈性之環境,鼓勵人工智慧機器人產業之投入,並依此作為後續法規調適之基礎。 鑒於人工智慧機器人所涉領域之多元,誠然有必要以宏觀角度全盤檢視與調適相應之規範及措施。故而,韓國2019年底提出富含權益保障與經濟逐利精神之「人工智慧國家戰略」,並鏈結不同部會共司建立彈性包容人工智慧機器人產業之環境。 參、事件評析 綜觀上述,韓國面對人工智慧及機器人,對內,以剛性立法手段,先行鋪設智慧機器人產業發展之基礎,包含界定智慧機器人範圍、賦予行政機關訂定倫理規範等一定義務、設置行政支持法源依據、以分類系統規劃作為數據統計基礎進行決策等,以拉抬、激勵企業投入研發,促成經濟層面活動之擴散與發酵;對外,以軟性規範宣示韓國政府發展智慧機器人產業態度、吸引國際間產學研能量挹注,並同步促成內部社會法體制之調整,不難看出韓國政府的企圖與決心,且整體上已約略有鼓勵、促進逐漸轉變為管理層面意味。 在我國方面,亦已意識到人工智慧風險管理之重要性,立法委員並在2019年5月倡議《人工智慧發展基本法草案》希望以制定基本法之方式,從研究、開發乃至整合等,厚植我國人工智慧實力,並嘗試建立人工智慧開發準則與倫理原則。韓國前述有關人工智慧之規範作法,或許可茲我國借鏡,就促進人工智慧技術經濟層面效益之面向,可由政府擬定具實質效力之法規範推動之;就現尚難明確定位之倫理準則及風險控管,採用軟性規範方式,先行以具包容性之政策、指引等作法試行,以待日後技術臻至成熟穩定,再行考量轉化為立法管理之必要。 [1] Crawford, K. et al. The AI Now Report: The Social and Economic Implications of Artificial Intelligence Technologies in the Near-Term, AI Now, 2016, https://ainowinstitute.org/AI_Now_2016_Report.pdf (last visited May. 22, 2019) [2] Cassie Kozyrkov, What is AI bias?, https://towardsdatascience.com/what-is-ai-bias-6606a3bcb814 (last visited May. 22, 2019) [3] BBC, The real risks of Artificial Intelligence, http://www.bbc.com/future/story/20161110-the-real-risks-of-artificial-intelligence(last visited May. 22, 2019). [4] 김성원 선임,지능정보사회의 도래와 법·윤리적 과제- 인공지능기술의 발달을 중심으로 -, National Industry Promotion Agency(2017/11/15), p10. [5] 總理會議係韓國特有的系統,主要由總統、總理以及15位至30位不等之國務院成員共同組成,成員包含各部會之首長。主要職能是做為國家決策的機構,並協調政策或行政事務。詳細資料可參見:http://theme.archives.go.kr/next/cabinet/viewIntro.do。 [6] 〈정부, AI 국가전략 발표…”AI 반도체 세계 1위 목표”〉,Bloter,2019/12/17,http://www.bloter.net/archives/364678 (最後瀏覽日:2020/2/1)。 [7] 〈인공지능(AI) 국가전략 발표〉,과학기술정보통신부,2019/12/17,https://www.msit.go.kr/web/msipContents/contentsView.do?cateId=_policycom2&artId=2405727 (最後瀏覽日:2020/2/1)。 [8]〈인공지능 국가전략〉,관계부처 합동,2019/12,頁36-38。