美國紐約第二巡迴法院上訴法院於2007年6月5日做出判決,認定FCC對於廣電節目是否違反猥褻言論規範之判斷標準為恣意專斷(arbitrary and capricious)的決定。此一案件起因於福斯電視台轉播2002年及2003年音樂告示排行榜頒獎典禮(Billboard Music Awards)時,歌手Cher及名人Nicole Richie分別在典禮中說出不雅言詞,事後FCC認定福斯電視台之轉播違反廣電節目之猥褻言論相關規範。福斯電視台對於FCC之認定不服,因而向法院提起訴訟。
依照過去FCC對猥褻言論之認定標準來看,「瞬間之咒罵言詞」(fleeting expletives)並不屬於猥褻言論,廣電節目中播出相關內容並不違反猥褻言論之管制規範。但自2003年起,FCC改變認定標準,認為所有不雅言詞均不可避免地帶有性暗示之內涵,因此廣電節目中凡涉及不雅言論之內容都是猥褻言論。
根據紐約第二巡迴法院上訴法院之判決指出,FCC的決定毫無疑問地改變了對於廣電節目是否違反猥褻言論規範之認定標準,且FCC對於改變認定標準一事所提出的理由並不具有說服力;FCC於訴訟過程中亦承認,即便在決定改變認定標準前,也沒有證據顯示廣播電視台曾密集播送充滿咒罵言論之內容。因此,紐約第二巡迴法院上訴法院認為,FCC改變認定標準一事乃是恣意專斷的決定,從而撤銷FCC對於福斯節目之認定。對於法院之判決,FCC主席Kevin Martin表示遺憾以及難以置信,將會委請律師研議是否繼續上訴最高法院。
歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).
歐盟聯合研究中心公布智慧電網計畫及智慧電表部署的成本效益分析指導原則智慧電網是歐洲未來低碳能源政策的核心議題,但要更新整個電力系統所費不貲,根據國際能源署(International Energy Agency, IEA)研究指出,從2007年至2030年,若要從生產、輸電到配電全部更新,需要花費1.5兆歐元(EUR 1.5 trillion),故基於投資的考量,有必要依據電網示範計畫所獲得的實際數據,來評估智慧電網發展的成本效益。因此,歐盟聯合研究中心(Joint Research Centre, JRC)分析了歐洲過去及現在正在進行的智慧電網示範計畫的成果,提出全面性的成本效益分析(cost-benefit analysis, CBA)評估架構,並選定葡萄牙InovGrid計畫作為參考實例以調整相關內容,於2012年初公布「智慧電網計畫的成本效益分析指導原則(Guidelines for conduction a cost-benefit analysis of Smart Grid projects,以下簡稱「智慧電網CBA指導原則」)」。 這是第一次具體的將CBA使用在智慧電網的實際案例評估之上,「智慧電網CBA指導原則」是為協助使用者分析不同地區的考量因素,以瞭解利益與成本,並分析關鍵要素,包括計畫的規模大小(例如每年接受服務的消費者、能源消費等)、工程特色(例如所採用的技術、主要設備的功能性)、電網當地特色、利益關係者(哪些人的成本及利益應納入考慮)、計畫的明確目的及預期對社會經濟的衝擊,以瞭解像分散式能源整合的可能性、電價及租稅的衝擊、環境成本等。「智慧電網CBA指導原則」是在提供建議,依據電力研究機構(Electric Power Research Institute, EPRI)的研究框架,逐步地提供了評估架構,作為分析考量時的核對清單。由於納入了地區性因素的考量,因此分析的結果最終將取決於各計畫的開發者及相關決策者的專業判斷。 此外,JRC亦公布「智慧電表部署的成本效益分析指導原則(Guidelines for conduction a cost-benefit analysis of Smart Metering Deployment,以下簡稱「智慧電表CBA指導原則」)」。「智慧電表CBA指導原則」之內容主要提供會員國在評估智慧電表的部署時,有一套分析的標準。如同「智慧電網CBA指導原則」一般,「智慧電表CBA指導原則」亦考量計畫規模、工程特色、電網當地特色、利益關係者、計畫的明確目的及預期對社會經濟的衝擊等因素,但非針對不同地區提供細節性的指示,因此仍須仰賴各計畫的開發者及相關決策者的專業判斷,以評估智慧電表部署的可行性。
日本監理沙盒制度推動趨勢—簡介生產性向上特別措施法草案與產業競爭力強化法修法內容我國自2017年12月通過《金融科技發展與創新實驗條例》建立金融監理沙盒制度後,各界時有呼籲其他非金融領域亦有沙盒制度之需要。觀察國際上目前於金融產業以外採取類似沙盒制度之國家,當以日本為代表,且日本相關制度亦為我國《中小企業發展條例》修法時之參考對象。 本文針對日本近期提出之《生產性向上特別措施法》(草案)以及日本《產業競爭力強化法》新近之修法等兩項日本近來有關沙盒制度之修法為觀察對象,針對其整體立(修)法背景、《產業競爭力強化法》中灰色地帶解消制度及企業實證特例制度修正重點以及《生產性向上特別措施法》(草案)中「專案型沙盒」之制度內涵進行整理,並比較企業實證特例制度及專案刑沙盒兩者制度上之異同。 本文最後發現,日本之沙盒制度設計上確實符合其減少事前管制、強調事後確認與評估、建立風險控管制度、課與主管機關提供資訊與建議之義務以及強化業者與主管機關聯繫等目標。同時,本文認為日本沙盒制度中有兩項制度特色值得我國關注及參考。第一,日本成立了包含外部專家的「評價委員會」,協助政府單位了解創新事業之內容及法規制度之觀察。第二,日本未來將提高實證制度之協調層級,在日本內閣府下設立單一窗口協助申請者決定其可適用之實證制度。
美國眾議院通過網路保護法美國眾議院於2015年4月22日以307票同意,116票反對,通過網路保護法(The Protecting Cyber Networks Act)。本法之立法目的在於移除法規障礙,美國公司藉此將得以與其他公機關或私人分享資安威脅的相關資訊,以防範駭客攻擊。 本法之重點內容主要係為對於網路威脅指標與防禦辦法之分享。依網路保護法第102條與第104條之規定,分享的客體包括「網路威脅指標」(cyber threat indicator)與「防禦辦法」(defensive measures),分享之對象則分為非聯邦機構(non-Federal entities)以及(國防部或國安局之外的)適當之聯邦機構(appropriate Federal entities)。本法第102條規定,在符合機密資訊、情報來源與方法、以及隱私及公民自由之保護下,國家情報總監(the Director of National Intelligence, DNI)經與其他適當聯邦機構諮商後,應展開並頒布相關程序,以促進下列事項之進行:「(一)與相關非聯邦機構中具有適當安全權限之代表,及時分享(timely sharing)聯邦政府所有之機密網路威脅指標;(二)與相關非聯邦機構及時分享聯邦政府所有,且可能被解密並以非機密等級分享之網路威脅指標;(三)於適當情況下與非聯邦機構分享聯邦政府所有,且與該些機構即將或正在發生之網路安全威脅(cybersecurity threat)有關之資訊,以防止或降低該網路安全威脅所造成之負面影響。」 以及,對於隱私權與公民自由之保障亦非常重要,就隱私權與公民自由之保障,網路保護法主要在第103條第4項設有相關規定。對於資訊安全,該項第1款規定,依本法第103條之規定進行資訊系統之監控、執行防禦辦法、或提供或取得網路威脅指標或防禦辦法之非聯邦機構,應實施適當之安全管控,以保護該些網路威脅指標或防禦辦法免遭未經授權之近用或取得。同項第2款則更進一步規定了特定個人資料在一定條件下應被移除。該款規定,依本法進行網路威脅指標分享的非聯邦機構,於分享前應合理地對該網路威脅指標進行復核,以評估該指標是否含有任何令該機構合理相信(reasonably believes)與網路安全威脅非直接相關,且於分享時(at the time of sharing)屬於特定個人之個人資訊或指向特定個人之資訊,並移除該等資訊。