新興經濟體之創新創業機制特色初探

刊登期別
第27卷第09期,2015年09月
 

本文為「經濟部產業技術司科技專案成果」

※ 新興經濟體之創新創業機制特色初探, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7036&no=57&tp=1 (最後瀏覽日:2026/03/28)
引註此篇文章
你可能還會想看
美國為加強聯邦補助生物科研之安全性而提出新規範

美國交通部針對聯邦自駕車政策3.0徵集公眾意見

  2018年1月10號,美國交通部部長趙小蘭於出席內華達州拉斯維加斯之消費者科技聯盟(Consumer Technology Association)大會時表示,美國交通部正在研擬發布新版之聯邦自駕車政策3.0(Federal Automated Vehicle Policy 3.0, FAVP3.0)以因應自動駕駛技術於未來對安全性、機動性與消費者權益之衝擊。該聯邦自駕車政策3.0將會是一個綜合整體運輸業概況之自動駕駛政策,其將讓自動化運輸系統,包括,車子、貨車、輕軌、基礎設施與港口得以安全的整合。   為了達成上述目的,且讓公眾的意見得以協助辨識美國聯邦法規必須配合修正之部分,並鼓勵更多的創新研發。美國交通部於其網站上也發起了數個自動化車輛技術之意見徵集,讓其能更準確的找出當前美國法規對於自動駕駛技術創新所造成之阻礙。   該意見徵集主要分為四項,第一項是由美國交通部聯邦公路管理局(Federal Highway Administration, FHWA)主管,針對如何將自動駕駛系統整合進入公路運輸系統之資訊徵求書(Request for Information, RFI)。   第二項與第三項則是由聯邦公共運輸局(Federal Transit Administration, FTA)分別針對自駕巴士研究計畫(Automated Transit Buses Research Program)與移除相關障礙所發出之意見徵詢書(Request for Comments, RFC)。   最後一項則是由交通部國家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)主管,針對移除自駕車法規障礙所發布之意見徵詢。

何謂德國電信媒體法中的「妨害人責任」(Störerhaftung)?

  原德國電信媒體法第八條條文中所指的「網路服務提供者」為擁有獨自或其他電信媒體及提供接取網路服務的自然人或法人,與我國著作權法中所提及「網路服務提供者」(Internet Service Provider)之適用對象範圍略有不同,而德國民法中有個特殊連坐法-「妨害人責任」(Störerhaftung),所有人對於妨害所有權之人,有排除及不作為請求權,因此,在原德國電信媒體法未規定之特定情形下,「網路服務提供者」應對他人透過其網路所從事的任何侵權違法行為負責。   這項法律使得德國許多咖啡館、公共空間、飯店大廳不願提供免費無線網絡,同時又讓大型咖啡連鎖店如星巴克,以提供免費網絡服務吸引顧客,因為他們就算被捲入網絡侵權責任的訴訟,也不怕支付高額律師費用,小型咖啡館就無法承擔這個風險,只能無奈面對客人轉向大型咖啡連鎖店消費的困境。根據原德國電信媒體法規定,咖啡館業主和其他網路熱點設立者所提供網路服務的方式將可能收到律師的警告函,告知他們不得再為非法下載者提供網路接取服務。   德國聯邦議院(Deutscher Bundestag)於2016年6月初經過激烈的辯論後,通過電信媒體法(Telemediengesetz; TMG)修正草案,將在最新的電信媒體法中免除「網路服務提供者」之「妨害人責任」(Störerhaftung),使德國的免費無線網絡連接點可以增加並走向開放。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP