行動通信事業提供視訊服務之法律議題研究

刊登期別
2005年11月
 

※ 行動通信事業提供視訊服務之法律議題研究, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=750&no=67&tp=1 (最後瀏覽日:2025/12/08)
引註此篇文章
你可能還會想看
簡介美國FTC垃圾電郵法制施行成效報告

FTC提供意見給NHTSA有關隱私權和車輛對車輛通訊(V2V)

  美國聯邦貿易委員會(FTC)針對國家公路交通安全管理局(NHTSA)的行政命令提出建議,就有關車輛到車輛通信(V2V)之事宜,FTC長期作為負責保護消費者隱私與安全的聯邦機構,FTC認為NHTSA在行政命令中採取隱私和安全問題考慮是非常適當。   在FTC的建議評論指出,FTC針對物聯網的的資訊安全疑慮,同樣也會適用在消費者的車輛收集的隱私和安全問題。FTC認為NHTSA的協商支持作法,基於流程的可解決隱私和安全隱患,其中包括隱私風險評估。該評論還讚揚NHTSA設計一個V2V系統來限制收集和存儲僅是供應其預期的安全目標的數據。   美國每年都會有上千人意外死於汽車意外事故,NHTSA研究指出,汽車相撞的原因多數情況下在於資訊的不透明,如果汽車之間可以「相互溝通」,讓駕駛彼此知悉對方的情況,就能減少碰撞事故。   「V2V」係指vehicle-to-vehicle,是規劃建立於汽車之間的通信網路。在這個網路中,汽車之間能夠互相傳送數據,告訴對方自己的狀態和行為,也了解其他車輛的狀態和行為。但是目前V2V各家發展的標準不一,因此假設福特的車如果不能跟其他廠商的汽車溝通,技術再好也沒用。   也因此,NHTSA在官網上公告規則,宣布將制定「V2V」通信技術標準的法規。也就是說,NHTSA將要制定一個統一的標準,來確保汽車之間溝通使用的是同一種語言。在最新的一份報告中,NHTSA詳細說明了「V2V」通信技術的軟硬體標準。它包括部署該項技術可能需要的硬體設施及其費用,汽車之間溝通的資料類型,以及該技術將如何提醒司機。此外,還覆蓋了「V2V」通信技術的安全細則,以及它將如何加密以避免竊聽和侵犯隱私。   在使用者和廠商都關心的資料外洩方面,NHTSA表示,資料本身將不包含個人身份資訊,並且將會被保密。目前提出的方案裡包含兩套數據,其中一個包含核心資訊:如位置、速度、駕駛方向、剎車狀態、車輛尺寸等。這些資料將即時更新並相互傳播。第二套數據則會更加複雜,只有在數據發生變化時才會相互傳輸。它包括汽車輪胎是否漏氣,前燈是否打開,保險杠的高度,是否行駛在密集人群中等。

日本通過國家戰略特別區域法修正案

  日本國會在2020年5月27日通過《國家戰略特別區域法》修正案(国家戦略特別区域法の一部を改正する法律),亦即「超級城市法」(スーパーシティ法)。所謂超級城市,係指符合(1)在交通、物流、支付、行政、醫療、照護、教育、能源/水、環境/垃圾、防災/安全等10大領域中,至少滿足其中5個領域日常生活需求;(2)加速實現未來社會生活;(3)透過民眾參與,建立從民眾觀點出發之理想社會等三大條件之未來都市。   超級城市法修正重點有二,首先為實現超級城市構想之相關制度整備,包括(1)賦予蒐集、整理、提供各種類型服務相關資料之資料聯合平台(データ連携基盤)業者法律上地位;(2)因相關制度涉及不同法規及主管機關,故超級城市法內特別設計可併同檢討跨領域法規修正之特別程序;(3)其他規定︰如明定各中央政府機關應提供具體協助、應檢討制定Open API規範,以及本法施行後3年應檢討施行狀況等。其次,本次修法新增地區限定型之監理沙盒制度(地域限定型規制のサンドボックス制度),針對自駕車、無人機等科技創新實驗,透過強化事後監督體制,事前放寬道路運輸車輛法、道路交通法、航空法、電信法之限制,以加速實驗進行。

歐盟發布「人工智慧白皮書」以因應人工智慧未來可能的機遇與挑戰

  人工智慧目前正快速發展,不論是在醫療、農業耕作、製造生產或是氣候變遷等領域上,均帶來了許多改變,然而在人工智慧應用之同時,其也存在許多潛在風險如決策不透明、歧視或其他倫理與人權議題。   歐盟為求在全球競爭激烈的背景下,維護其於人工智慧相關領域的領先地位,並確保人工智慧技術於改善歐洲人民生活的同時,亦能尊重(respecting)人民權利,乃於今年(2020年)2月發布「人工智慧白皮書」(White Paper on Artificial Intelligence),將採投資及監管併用之方式,促進人工智慧應用與解決其相關風險,其對於未來促進人工智慧的應用(promoting the uptake of AI)與相關風險解決,計畫朝向建立卓越生態系統(An Ecosystem of Excellence)及信任生態系統(An Ecosystem of Trust)兩方面進行。   在建立信任生態系統中,歐盟提到因為人工智慧具有變革性的潛力,所以就信任的建立乃至關重要,未來歐洲人工智慧的監管框架除了須確保遵守歐盟法規外(包括基本權利保護與消費者權益維護之規範),對於高風險性之人工智慧應用,其將強制要求需於銷售前進行合格評定(mandatory pre-marketing conformity assessment requirement)。而有關高風險性之定義,歐盟於該白皮書指出須符合以下兩個要件: 考量人工智慧應用之一般活動特徵,其預計會有重大風險的發生,例如在醫療保健、運輸、能源和可能屬於高風險的公共領域;以及 在預期用途或應用上都可能對個人(individual)或企業(company)帶來重大的風險,特別是在安全性(safety)、消費者權益(consumer rights)與基本權利(fundamental rights)上。   歐盟委員會目前針對於以上白皮書之內容與附隨報告,將向公眾徵詢意見至今年5月19日。

TOP