問題在號碼?(下)---談網路電話服務(VoIP)號碼核配與網路互連管制問題

刊登期別
2004年
 

相關附件
※ 問題在號碼?(下)---談網路電話服務(VoIP)號碼核配與網路互連管制問題, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=797&no=67&tp=1 (最後瀏覽日:2026/04/07)
引註此篇文章
你可能還會想看
不到一個月內,HP二次控訴Acer侵害其專利權

  2007年3月27日HP(Hewlett-Packard)公司甫向美國德州聯邦法院控訴台灣的宏碁(Acer)公司侵害該公司五項的專利權;不到一個月的時間,於4月19日又再度向該法院控訴宏碁公司侵害其四項的專利權,包含散熱裝置、電力儲存等專利。除請求賠償金外,亦要求法官禁止宏碁公司相關產品在美國市場上銷售。   不過HP公司第二次起訴的時間點正在市場研究機構IDC公司公佈相關的統計資料後,因為根據IDC公司於4月18日公佈2007年第一季的統計資料顯示,HP公司仍然穩坐全球電腦市場銷售的龍頭,其他領先的廠商依序為戴爾(Dell)、聯想(Lenovo)與宏碁等公司。但同樣是根據IDC的統計,宏碁公司在2005至2006年間已成長37.9%,而且榮獲美國市場多種的獎項,未來的銷售發展情形十分樂觀。   HP公司控訴宏碁公司的行為,是否基於競爭策略的考量目前尚不得而知,但據報導HP公司也在同(19)日向美國國際貿易委員會(ITC)提出申訴,要求禁止宏碁公司的產品進口到美國。原則上ITC的委員會在一個月內決定是否對該案件進行調查,接著在12至15個內完成調查後,才會做出最後的決定。

國際能源總署發布「二氧化碳封存資源及其開發」手冊,協助能源部門及利害關係人了解地質封存效益、風險及社會經濟相關考量

國際能源總署(International Energy Agency, IEA)於2022年12月發布「二氧化碳封存資源及其開發」手冊(CO2 storage resources and their development: An IEA CCUS Handbook),概述地質封存之效益、風險與社會經濟相關考量,並補充2022年度7月份的碳捕捉、利用及封存(Carbon Capture, Utilization and Storage, CCUS)法律和監管框架。該手冊架構可分為九個章節,重要章節包含:碳封存資源概述、碳封存開發生命週期、評估階段開發、風險管理、商業化、以及提供具體建議予決策者或私營部門。 由於CCUS涉及複雜管理及營運模式,IEA為決策者確立五個總體行動,簡述如下:(1)識別封存資源並提供必要資料:現有的地質資料是寶貴的起點,政府可以將現有資料數位化並建置資料庫,便於私部門獲取資訊。(2)確保法律與管制框架符合CCUS需求:政府應全面盤點既有法制體系是否到位,並應解決下列幾個關鍵問題:碳封存特定責任與風險、建立明確與適當的許可流程、地下孔隙空間的所有權、案場管理要求(如監控、關閉等)。(3)制定支持碳封存的政策:如將CCUS納入國家能源及氣候計畫、制定CCUS路線圖以協調發展策略、進行全面資源評估、制定獎勵措施(如獎勵資金、稅收抵免、可交易的憑證、鼓勵降低成本的創新計畫、風險緩解措施、碳定價等)。(4)支持先驅者並促進投資:產業先驅者時常面臨發展尚未成熟的開發環境或法制體系,因此建議政府得給予先驅者特定的獎勵措施。(5)支持發展CCUS的技術、專業能力:鼓勵石化與天然氣產業朝向CCUS轉型,如提供相關知識並培養相關技術,支持持續就業並避免人才流失等。

法國國家資訊自由委員會將推出符合GDPR的人工智慧操作指引(AI how-to sheets)

法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。 人工智慧操作指引主要內容整理如下: 1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。 2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。 3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。 4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。 5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。 6.必要時進行資料保護影響評估(DIPA)。 7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。 8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。 對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

TOP