美國國會議員日前提案,擬立法對抗違反智慧財產權的非法網站。該法案(Preventing Real Online Threats to Economic Creativity and Theft of Intellectual Property Act, 或稱PROTECT IP Act)主要係針對侵害智慧財產權的非法網站,擬賦予美國司法部或著作權人,可向法院聲請於網路上封鎖該網站,或者不讓其在搜尋引擎上顯示,亦即讓該非法網站從網路徹底消失。同時,經營網路金流的業者以及網路廣告商,也不得再提供服務給予這些違反智慧財產權或者是販售贗品的非法網站。
該法案明確的規定,舉凡與非法網站相關的資料、數據、索引、超連結等,皆需從網際網路上移除。亦即,美國人民在網路上將不會再看到這些非法網站的任何資訊,若該法案通過,將連帶影響到Google、Yahoo等搜尋引擎的實務運作。有反對者指出,此舉將使得美國政府可以決定美國人民在網路上應該看什麼內容,因此戲稱該法案為網路審查法案(Internet censorship bill)。
網路巨擘Google執行長(Eric Schmidt)也於今年5月中聲明反對該提案,認為該提案已經嚴重侵害言論自由。執行長Eric Schmidt表示,美國政府試圖以立法手段解決複雜的網路侵權爭議,以立法封鎖、移除非法網站所有資料,跟中國限制網路言論自由的方式如出一轍。
目前該法案尚未通過,已出現不少反對聲浪,財產權以及言論自由同樣是憲法上保障的權利,究竟應如何在保障著作財產權人與言論自由間取得平衡,該法案未來發展值得密切注意。
2021年7月中旬,日本經濟產業省(下稱經產省)發布《促進資料價值創造的新資料管理方法與框架(暫定)(データによる価値創造(Value Creation)を促進するための新たなデータマネジメントの在り方とそれを実現するためのフレームワーク(仮))》之綱要草案(下稱資料管理框架草案),並公開對外徵求意見。 近年日本在「Society5.0」及「Connected Industries」未來願景下,人、機器與科技的跨界連接,將創造出全新附加價值的產業社會,然而達成此願景的前提在於資料本身須為正確,正確資料的自由交換,方能用於創造新資料以提供附加價值,因此正確的資料可說是確保網路空間連結具有可信性的錨點。為此,經產省提出資料管理框架草案,透過資料管理、識別資料在其生命週期中可能發生的風險,以確保資料在各實體間流動的安全性,從而確保其可信性。 該框架將資料管理定義為「基於資料的生命週期,管理各場域中資料屬性因各種事件而變化的過程」,由「事件(資料的產生/取得、加工/利用、轉移/提供、儲存和處置)」、「場域(例如:各國家/地區法規、組織內規、組織間的契約)」和「屬性」(例如:類別、揭露範圍、使用目的、資料控制者和資料權利人)三要素組成的模組。經產省期望未來能透過三要素明確資料的實際情況,讓利害關係人全體在對實際情況有共同理解的基礎上,能個別確保適當的資料管理,達成確保資料正確之目的。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
印度隱私權制度下兒童資料安全的保護現狀印度電子資訊產業技術部(MeitY)2022年11月在網站上公布了個人資料資訊保護法草案(Digital Personal Data Protection Bill,以下簡稱該法案),並於2023年7月提交議會審查。目前印度民法不承認未成年人(未滿18歲者)具有自主簽訂契約的能力。因此,取得的兒童同意不具有法律效力,必須徵得父母或是監護人的同意才能合法蒐集兒童個人資料。 根據印度2022年個人資料資訊保護法案草案,任何未滿18歲的人都被歸類為「兒童」。該法案中同時限制專門向兒童發送的廣告,並且監管任何追蹤兒童行為的情況。目前國際隱私法(例如:歐盟通用資料保護條例 (GDPR)、加州消費者隱私法(CCPA)等)的兒童定義多在13至17歲之間。但考慮到兒童個人資訊的敏感性和潛在危害,印度政府採取了較保守嚴謹的路線。政府也已被授權制定有關處理兒童個人資訊的細則,特别是確保資料使用人不可使用可能對兒童造成傷害的個人資料。 根據社會發展狀況,兒童若每次在網路平台上進行活動時都需經過父母或是監護人同意不甚妥適,且根據前述說明,兒童界定年齡為18歲以下,若依照統一年齡範圍進行控管,實際執行上面臨窒礙難行之處。故修法者在對於該法案修改意見中,引用了其他國家隱私法中的不同年齡分類限制,以求降低年齡門檻限制,或是根據用戶的年齡制定差異化的授權要求。 另一個產生的爭議為,該如何驗證父母或是監護人的同意表示。法條中目前無明確規範何為「有效之同意表示」,現行各平台使用不同的方法獲得父母或是監護人的同意,目前有兩種方式,包括點選「同意」按鈕,或是在用戶條款中表示若使用服務等同於監護人同意。 關於兒童年齡之界定,是否將參考其他國家規範進行差異化設定,目前暫無明確定論(包括如何調整、年齡級距設定),根據資訊使用的普及,兒童年齡的界定可以預期的將會進行調整;關於如何有效驗證父母或是監護人的同意表示,目前在技術上大多服務商都偏好透過會員註冊時的同意按鈕或是用戶條款中列明若使用服務即代表同意這兩種方式認定,在這兩種方式之後,系統是否有設定驗證機制,以及需要何種驗證方式才可以認定父母或是監護人的同意表示是符合法律效力的,都需後續再進行研擬。
歐盟執委會發布2024年的能源聯盟現狀報告,概述歐盟能源政策的進展以及挑戰歐盟執委會於2024年9月11日發布「2024年的能源聯盟現狀報告」(State of the Energy Union Report 2024),說明歐盟近年來在能源政策方面的發展,以及未來需要面對的挑戰。其中三項重點內容及近期後續發展如下: (1) 歐盟減碳和再生能源發展成果顯著 歐盟的溫室氣體排放量從1990年到2022年減少了32.5%,而同期歐盟經濟則增長了約67%;且於再生能源發展方面,風力發電成為歐盟第二大電力來源,僅次於核能。2024年上半年,再生能源占歐盟發電量的50%,超越歐盟所有化石燃料的總發電量。不過,歐盟仍需要加強能源效率措施,以實現到2030年最終能源消耗量減少11.7%的目標。 今(2025)年1月23日,英國智庫Ember報告指出,綜觀2024年,太陽光電已占歐盟發電量的11%,首度超越燃煤發電(10%),自綠色政綱(European Green Deal)頒布以來,風電與光電所增加的發電量,已助歐盟減少近590億歐元的化石燃料進口。 (2) 歐盟已降低對於俄羅斯的能源依賴 歐盟已大幅減少對俄羅斯天然氣的進口依賴,從2021年的45%降至2024年6月的18%,同時增加了從挪威和美國等可靠合作夥伴的進口;並將繼續支持烏克蘭,幫助其穩定電力系統,並通過捐款和資金援助其能源部門。而烏克蘭於今年停止俄羅斯天然氣借道輸送至歐洲後,波羅的海三國:立陶宛、拉脫維亞和愛沙尼亞亦決議脫離俄羅斯電網,連接歐洲大陸電網和能源市場。 (3) 歐盟將持續推動淨零相關政策 歐盟致力在淨零轉型過程中賦予能源消費者權利,通過新的能源市場法規保護消費者,確保其能負擔得起能源之使用,並提供社會氣候基金等支持;而為持續增強能源安全和競爭力,歐盟需要加快淨零技術的發展,加強與工業界的合作,並妥善利用創新基金等工具。而同(2024)年12月歐盟即以創新基金挹注46億歐元,加速綠氫、儲能、熱泵、電動車電池和等技術開發,並與歐洲投資銀行共同宣布以現代化基金投資29.7億歐元,支援會員國的潔淨工業部門;今年1月則在跨歐洲能源基礎設施 (Trans-European Networks for Energy Regulation, TNE-E)的政策架構下,投資跨國能源基礎建設逾12 億歐元,包含海上及智慧電網、氫能及碳封存之基礎設施等計畫。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。