2018年1月10號,美國交通部部長趙小蘭於出席內華達州拉斯維加斯之消費者科技聯盟(Consumer Technology Association)大會時表示,美國交通部正在研擬發布新版之聯邦自駕車政策3.0(Federal Automated Vehicle Policy 3.0, FAVP3.0)以因應自動駕駛技術於未來對安全性、機動性與消費者權益之衝擊。該聯邦自駕車政策3.0將會是一個綜合整體運輸業概況之自動駕駛政策,其將讓自動化運輸系統,包括,車子、貨車、輕軌、基礎設施與港口得以安全的整合。
為了達成上述目的,且讓公眾的意見得以協助辨識美國聯邦法規必須配合修正之部分,並鼓勵更多的創新研發。美國交通部於其網站上也發起了數個自動化車輛技術之意見徵集,讓其能更準確的找出當前美國法規對於自動駕駛技術創新所造成之阻礙。
該意見徵集主要分為四項,第一項是由美國交通部聯邦公路管理局(Federal Highway Administration, FHWA)主管,針對如何將自動駕駛系統整合進入公路運輸系統之資訊徵求書(Request for Information, RFI)。
第二項與第三項則是由聯邦公共運輸局(Federal Transit Administration, FTA)分別針對自駕巴士研究計畫(Automated Transit Buses Research Program)與移除相關障礙所發出之意見徵詢書(Request for Comments, RFC)。
最後一項則是由交通部國家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)主管,針對移除自駕車法規障礙所發布之意見徵詢。
本文為「經濟部產業技術司科技專案成果」
英國政府提議將網路盜版者的有期徒刑從2年調整到10年的法律修正案,假使這修正案被批准,將會使網路著作權侵權刑責與實體侵權的刑責趨於一致。 英國智慧財產局公開了諮詢文件,提到利益人希望調整網路侵權的刑事制度,提高為10年的有期徒刑的訴求。英國政府同意網路著作權侵權導致的嚴重損害不少於實體盜版侵權的損害。此項修正案的嚴刑峻罰對於網站擁有者的影響將大於個人侵權者。政府文件指出,此修正案特別針對設法透過網路廣告和訂閱費用獲利的犯罪活動。 英國的智慧財產部長Baroness Neville-Rolfe說道,創意產業帶動超過7萬億經濟價值,應著重保護創意產業遠離網路犯罪集團。對於商業規模的網路犯罪行為採取嚴峻的刑罰,將可提供產業更大的保護,並可明確傳遞清除犯罪的決心以嚇阻罪犯。 政府針對諮詢文件提供六周的時間供個人和組織對此已知的提案提供意見,一旦政府進一步對此議題的回應進行評估與審查,可預期未來幾個月即可獲知此法律修正案最終的決定。 將網路侵權的刑期提高到10年已經是第二次推動,在2005年Gowers智慧財產權審查報告中已經提議提高刑責2年到10年,但在當時政府拒絕此項提議,因為當時政策僅針對嚴重或危險的罪犯處以監禁服刑。
歐盟將對微軟反托辣斯法進行聽證據報導指出,歐盟競爭委員會(European Union Competition Commission)安排將於六月初針對微軟視窗作業系統搭售的IE瀏覽器的行為進行口頭聽證。此項指控最初是在2007年12月由Opera Software ASA所提出。從今年一月起,數個主要瀏覽器大廠,如:分別開發出Firefox和Chrome的Mozilla及Google,都以第三方的身份參加本案。在數週前,一個包含Adobe、IMB和Oracle等競爭公司的商業團體也以第三方的身份取得參與六月份聽證的管道。當然,微軟亦可趁此機會來回應歐盟對其因搭售IE而扭曲瀏覽器競爭市場的指控。 另據報導指出,微軟在回應期限到期前所遞交的機密文件中有說明,歐盟若對微軟視窗作業系統制定規範,將會使Google在網際網路搜尋市場上,獲得更主導性的地位,這將不利於網際網路搜尋市場的競爭。微軟的主要理由是,Opear和Mozilla已和Google取得協議,Google搜尋引擎將成為該二公司瀏灠器的預設搜尋引擎,Google的瀏覽器Chrome自亦是如此。此外,如果顯示電腦使用者選擇何種瀏覽器的螢幕是由電腦製造商所製造,Google將可直接和這些製造商合作,使Google搜尋引擎成為預設搜尋引擎。微軟同時宣稱,要求將其他公司的瀏覽器附加於微軟視窗作業系統上會侵害其品牌權利,並使其負擔潛在的智慧財產責任。 此案經過聽證後,可能仍需要好幾年才會有結論。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
談數位內容法制之立法模式與合併問題