國家通訊傳播委員會第545次委員會議審議通過「因應數位匯流調整有線電視收費模式規劃」案

刊登期別
第25卷,第12期,2013年12月
 

※ 國家通訊傳播委員會第545次委員會議審議通過「因應數位匯流調整有線電視收費模式規劃」案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6428&no=67&tp=1 (最後瀏覽日:2026/03/12)
引註此篇文章
你可能還會想看
美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

為加速解決智財、民事相關爭議,日本推動司法制度改革

  日本政府一直希望能透過改革司法制度,用以解決日本日益增加的跨國民事、智財爭議、消費爭議等案件,故從今(2019)年4月起,日本內閣官房聯合日本最高法院、法務省、外務省等相關單位,積極針對現行的司法制度進行檢討。日本政府期盼透過這次的司法改革,能降低訴訟成本、加速解決爭議案件。   日本內閣官房,於12月9日發表了第九次民事司法制度改革推進會議的決議,這次的會議針對日本現行的民事訴訟程序制度提出了制度改革大綱與具體的改革建議,如日本現行的民事裁判應進行全面IT化,並希望擴充非訟事件的類型。   在這次的會議中,有三個主要的重點:首先在民事裁判上,將增加訴訟代理人律師有提出電子化訴訟文件之義務,民事訴訟法修法通過後,要求訴訟代理人應線上提出訴訟相關文件,未來也會進一步要求本人自訴的案件,自訴者也負有與訴訟代理人同等之義務。   再者在智慧財產爭議案件上,日本政府正在評估是否導入「二階段訴訟制度」。未來在專利權是否侵權的判斷上,會將侵權與否的判斷與損害賠償的裁量拆分為兩階段,且未來在判斷與裁量上,希望法院能採用第三方的專家學者意見做為判斷的依據。   最後,為因應近年的國際化社會,日本新設了「日本國際紛爭解決中心」,希望能強化現行商業爭議案件的裁判程序。另外擴充了現行「國民生活中心」裡「越境消費者中心CCJ」的功能,除了針對跨境消費者外,更提供了在日外國人多國語言的諮詢管道。綜上所述,未來將會修正日本現行的民事訴訟法、專利法等相關法規,司法制度改革細節預計於2020年3月做出最終決議。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」。

問題在號碼?(下)---談網路電話服務(VoIP)號碼核配與網路互連管制問題

自動駕駛車輛之分級與責任

  所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。   而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。   德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。   故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。   修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。

TOP