英國自2020年1月31日正式脫離歐盟後,即成為歐盟跨境傳輸的「第三國」。能否持續和歐盟國家進行個資傳輸,就須視歐盟對英國跨境資料保護方式和《一般資料保護規範》(General Data Protection Regulation,GDPR)有無認定雙方具有本質上相同的保護程度,又稱為「適足性」(adequacy)的認定。目前,歐盟給予英國跨境傳輸過渡期到2021年7月,在此之後若希望持續不受限制的交流,就須經歐盟執委會(European Commission, EC)通過適足性認定後才得以進行。
2021年2月19日,歐盟執委會提出草案,認為英國的個資保護標準與歐盟的「GDPR」、「執法機關資料保護指令」(Law Enforcement Directive,LED)有適足性之適用。又在4月14日,歐盟個資保護委員會(European Data Protection Board, EDPB)針對歐盟執委會於2月19日所做的認定草案提出兩項意見:
一、肯認英國現行國內資料保護的核心架構中有關個資保護、處理及控制者的要件及處理方式和GDPR的保護程度並駕其驅。另,肯定英國「2018年資料保護法」(Data Protection Act 2018)中有關GDPR及LED的適用及對「英國資訊委員辦公室」(Information Commissioner’s Office, ICO)所賦予的權利及義務。
但同時,EDPB也向歐盟執委會提出以下幾點注意事項:
二、 認為英國法律框架中的核心要件實質上與LED的基礎原則具有高度一致性。因此建議歐盟執委會引入四年的日落條款(four-year sunset clause)方式,並密切觀察英國資料保護的發展,在必要時得以要求修改或終止LED適足性的決定。
針對以上問題,歐盟執委會希望能在6月底前廣納各國意見並做出決定。屆時,若通過適足性認定,其效期將延續4年,之後再進行適足性評估。並可能在英國開始制定相關的適足性及資料保護架構時,歐盟執委會得將其納入定期審查的項目中,以確保歐盟的個資跨境傳輸進入英國後,仍受適當的保護。
美國雖將能源列為國家長期的能源政策目標,自1990年代後期,亦投入核能的安全性、環境建置及研發補助等,但最近因將重點放在其他替代性能源的開發,因此在核能方面的計畫稍微減少,尤其自1979年美國三哩島核電廠(Three-Miles Island Nuclear Generating Station)發生事故後,美國三十年來未再興建任何核電廠。但由於核能發電的高效率與不會排放二氧化碳的低污染,因此美國政府將之列為重點發展項目,強調美國政府的能源政策是要發展任何可能的能源,包括合核能,以提升在全球潔淨能源的競爭優勢。 美國總統歐巴馬表示,為了維持能源供需的穩定,以及避免氣候的惡劣變遷,有必要重啟美國核能產業,持續提高核能的供應量。因此於2011年12月經核子管理委員會(Nuclear Regulatory Commission)通過、2012年2月再次於投入核電廠的興建,於喬治亞洲Vogtle核電廠核准興建兩座新的核能反應爐,並透過成本分擔協議(cost-share agreement)投入2億美元,協助設計認證及許可。 此外,並於同年3月宣布投入4. 5億美元於五年內支持兩座自製的小型核能反應爐(small modular nuclear reactor,SMR)的設計、認證及核准,希望能輸出這些自製的反應爐,提升全球潔淨能源的競爭力。這些反應爐約只佔核能廠的三分之一面積,具有安全的建築設計,小型反應爐能在工廠內製造,並運輸到定點安裝,能節省成本及建造的時間。且其最理想的地方在於其體積小,能使用在小型智慧電網級一些無法容納大型反應爐的地方,其運用能更有彈性,能增加經濟效益。 國政府希望透過與私人企業的合作,帶領美國在全球核能科技及製造的領先地位。因此希望能源部希望此計畫能經核子管理委員會的許可,此一小型核能反應爐的計畫總金額為9億美元,透過與私人企業成本分擔的協議,其中50% 由國會撥款,另50%則由私人企業投資,並於2022年商業化,取得在全球潔淨能源的競爭優勢地位。
美國上訴法院推翻FCC對廣電節目猥褻言論之認定美國紐約第二巡迴法院上訴法院於2007年6月5日做出判決,認定FCC對於廣電節目是否違反猥褻言論規範之判斷標準為恣意專斷(arbitrary and capricious)的決定。此一案件起因於福斯電視台轉播2002年及2003年音樂告示排行榜頒獎典禮(Billboard Music Awards)時,歌手Cher及名人Nicole Richie分別在典禮中說出不雅言詞,事後FCC認定福斯電視台之轉播違反廣電節目之猥褻言論相關規範。福斯電視台對於FCC之認定不服,因而向法院提起訴訟。 依照過去FCC對猥褻言論之認定標準來看,「瞬間之咒罵言詞」(fleeting expletives)並不屬於猥褻言論,廣電節目中播出相關內容並不違反猥褻言論之管制規範。但自2003年起,FCC改變認定標準,認為所有不雅言詞均不可避免地帶有性暗示之內涵,因此廣電節目中凡涉及不雅言論之內容都是猥褻言論。 根據紐約第二巡迴法院上訴法院之判決指出,FCC的決定毫無疑問地改變了對於廣電節目是否違反猥褻言論規範之認定標準,且FCC對於改變認定標準一事所提出的理由並不具有說服力;FCC於訴訟過程中亦承認,即便在決定改變認定標準前,也沒有證據顯示廣播電視台曾密集播送充滿咒罵言論之內容。因此,紐約第二巡迴法院上訴法院認為,FCC改變認定標準一事乃是恣意專斷的決定,從而撤銷FCC對於福斯節目之認定。對於法院之判決,FCC主席Kevin Martin表示遺憾以及難以置信,將會委請律師研議是否繼續上訴最高法院。
美國CIPU報告指出「智財管理者與企業經營者須具備充足之智慧財產權素養,以處理日常業務上的智慧財產權議題」美國The Center for Intellectual Property Understanding(CIPU,以提高人們的智慧財產管理素養和提倡阻止侵權行為為宗旨的教育推廣非營利組織)於2025年2月19日發布之「Manager and Entrepreneur IP Experience: The Limitations of On the Job Learning」報告指出,於美國從事智慧財產權的美國商業人士於智慧財產權相關問題時有兩大現象,包括:專利人員具備基本營業秘密素養之重要性與日常商務活動之商標、著作權問題日趨普遍。 針對前者,根據Ocean Tomo發布的市場研究,從1975年到2020年,無形資產佔整公司整體價值從17%提升至90%,可見智慧財產權在國際市場的重要性,這也表示有更多不同領域的專業人士在參與處理專利、著作權及商標之問題,包括非法律專業人士,例如工程師、行銷策略師和其他來自教育領域之人員等,但是這些人員之所學很少涉略智慧財產,將導致無法確實有效的因應智慧財產議題,進而造成付出代價高昂的溝通障礙以及難以認定專利是否具備商業應用等負面影響。而一些從事專利領域的人員指出,當了解營業秘密的重要性,將可使從事處理智慧財產相關工作的人員決定是否要保密抑或揭露公開揭露這些資訊。 至於後者,在本篇報告相關的研究指出,高商標註冊率和高獲利及股票回報價值的整體無形資產間存在正向關係。許多受訪者還提到透徹了解商標法對於發展品牌、降低責任風險的方式至關重要。對於生成式AI的領域的企業家,因為侵權和合理使用問題持續存在,所以著作權意識的重要性也隨之提升。而為公司管理著作權資產的專業人士時常有管理多樣化資產的機會,例如廣播、串流媒體的權利金及整個產業鏈的製作成本等。 因此,對於時常接觸智慧財產之產業之相關人員而言,應提供更多智慧財產權相關課程,開發可存取、使用者友善的資源,以彌平從事任何形式的智慧財產權的專業人員法律素養之差距,進而使這些人員足以應對日常業務上可能面臨的智慧財產問題。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。