在數位匯流的發展下,設備與服務之應用更為多元化,越來越多電信服務使用者透過電信公司提供的無線網路,來使用網路電話服務,例如Skype、Google Voice等,以達到通話與簡訊收發的目的,也因此造成電信公司通話收益的下滑。為了因應這樣的情況,美國提供行動通話的電信公司,例如AT&T、Verizon等,都採取了若干行動來維護本身的利益,包括長期以遲延此類服務之封包為手段,阻礙網路電話之通訊效益,降低用戶的使用意願;之前AT&T專賣之iPhone手機,也被設定無法安裝Google Voice服務,限制用戶的使用方式,以降低網路電話服務對行動通信業者的衝擊。
有鑑於此類狀況將日漸增加,為了促進多元產業的良性競爭,近日美國聯邦通訊委員會(Federal Communication Commission, FCC)依據「網路中立」(Internet neutrality)的法理原則,針對AT&T的iPhone事件開始展開調查,並且計畫禁止行動通訊公司利用封包延遲的手法,來妨礙網路電話服務的提供,以確立其網路中立的立場。以目前來看,這樣的行動與計畫將嚴重打擊行動通信公司的收益,畢竟行動通信公司以客戶的通話費與簡訊費為其主要獲利來源,但是從另一方面來說,消費者可以透過Skype、Google Voice等網路電話服務,來節省其通話與簡訊費,因此FCC此項計畫獲得消費者團體的支持。FCC的計畫預計將引領未來數位匯流發展一個初步的方向,而FCC擬於十月會議中提出相關的規則草案,確定的規則公告預計會在明年春天發布。
本文為「經濟部產業技術司科技專案成果」
歐盟《人工智慧法》(Artificial Intelligence Act, AIA)自2024年8月1日正式生效,與現行的《醫療器材法》(Medical Devices Regulation, MDR)及《體外診斷醫療器材法》(In Vitro Diagnostic Medical Devices Regulation, IVDR)高度重疊,特別是針對用於醫療目的之人工智慧系統(Medical Device AI, MDAI)。為釐清三法協同適用原則,歐盟人工智慧委員會(Artificial Intelligence Board, AIB)與醫療器材協調小組(Medical Device Coordination Group, MDCG)於2025年6月19日聯合發布常見問答集(Frequently Asked Question, FAQ),系統性說明合規原則與實務操作方式,涵蓋MDAI分類、管理系統、資料治理、技術文件、透明度與人為監督、臨床與性能驗證、合規評鑑、變更管理、上市後監測、資安與人員訓練等面向。 過去,MDR、IVDR與AIA雖各自對MDAI有所規範,但始終缺乏明確的協同適用指引,導致製造商、監管機關與醫療機構在實務操作上常面臨混淆與困難。本次發布的指引透過36題問答,系統性釐清三法在高風險MDAI適用上的關聯,重點涵蓋產品分類原則、合規評鑑流程以及技術文件準備要點,具高度實務參考價值。此外,傳統醫療器材的上市後監測,難以有效因應AI系統持續學習所帶來的風險。AIA因此要求高風險MDAI建立強化的上市後監控系統,並評估AI系統與其他系統交互作用可能產生的影響。 整體而言,該指引的發布不再僅限於MDAI技術層面的合規審查,而是進一步擴展至資料正當性、系統可控性、使用者能力與整體風險治理等層面,體現歐盟對AI倫理、透明與責任的制度化落實。此文件亦為歐盟首次系統性整合AI與醫療器材監管原則,預期將成為MDAI產品研發與上市的重要參考依據。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)
Google被控不當蒐集蘋果公司Safari瀏覽器用戶的個人資料案件緣於Judith Vidal-Hall等三人對Google提告,主張Google規避蘋果公司Safari瀏覽器預設之隱私設定,在未取得用戶同意前,逕行使用cookies追蹤其網路活動,蒐集瀏覽器產生的資訊(the Browser-Generated Information, or ‘BGI’),並利用其對用戶發送目標廣告。原告認為這些作法可能使用戶的隱私資訊被第三人所探知,而且與Google保護隱私之公開聲明立場相違。此案於2015年3月27日由英國上訴審法官做成判決,並進入審理程序(裁判字號:[2015] EWCA Civ 311)。 本案主要爭點包含,究竟用戶因使用瀏覽器所產生的資訊是否屬於個人資料?濫用隱私資訊是否構成侵權行為?以及在沒有金錢損失(pecuniary loss)的情形下,是否仍符合英國資料保護法(Data Protection Act 1998)第13條所指損害(damage)的定義,進而得請求損害賠償? 法院於判決認定,英國資料保護法旨在實現「歐盟個人資料保護指令」(Data Protection Directive,95/46/EC)保護隱私權的規定,而非經濟上之權利,用以確保資料處理系統(data-processing systems)尊重並保護個人的基本權利及自由。並進一步說明,因隱私權的侵害往往造成精神損害,而非財產損害,從歐洲人權公約(European Convention of Human Rights)第八條之規定觀之,為求對於隱私權的保障,允許非財產權利的回復;倘若限縮對於損害(damage)的解釋,將會有礙於「歐盟個人資料保護指令」立法目的的貫徹。 法院強調,該判決並未創造新的訴因(cause of action),而是對於已經存在的訴因給予正確的法律定位。從而,因資料控制者(data controller)的不法侵害行為的任何損害,都可以依據英國資料保護法第13條第2項請求損害賠償。 本案原告律師表示:「這是一則具有里程碑意義的判決。」、「這開啟了一扇門,讓數以百萬計的英國蘋果用戶有機會對Google提起集體訴訟」。原告之一的Judith Vidal-Hall對此也表示肯定:「這是一場以弱勝強(David and Goliath)的勝利。」 註:Google 在2012年,曾因對蘋果公司在美國蒐集使用Safari瀏覽器用戶的個資,與美國聯邦貿易委員會(United States Federal Trade Commission)以2,250萬美元進行和解。
美國總統發布行政命令,促進資料中心基礎建設之發展2025年7月23日,川普總統簽署行政命令,加速資料中心基礎建設(data center infrastructure)之發展。適用該命令之資料中心,需新增超過100百萬瓦(MW)電力負載,並新增瓦數專用於人工智慧推論、訓練、模擬或產生合成資料。 行政命令內容主要包含以下事項: 1. 政府將為合格資料中心基礎建設提供財政支持,如貸款、貸款擔保、補助金(grants)、稅收優惠(tax incentives)或承購協議(offtake agreements)。本行政命令所稱之合格資料中心基礎建設,其本體或相關設施需符合以下條件之一: (1) 業者承諾投資超過五億美元,五億以上之具體門檻以美國商務部長認定為準。 (2) 新增超過100百萬瓦(MW)之電力負載。 (3) 有助於維護國家安全。 (4) 經美國國防部、內政部、商務部或能源部之部長指定。 2. 撤銷拜登總統發布之14141號行政命令「推進美國在人工智慧基礎建設領域的領導地位」。該命令原要求在聯邦土地建設人工智慧資料中心者須提供關於多元與氣候議題之說明。 3. 指示政府機關簡化合格資料中心基礎建設的環境審查和許可。 (1) 相關政府機關應向環境品質委員會(Council on Environmental Quality)確定依《國家環境政策法》(National Environmental Policy Act),可以加速合格資料中心基礎建設建置的環境審查豁免措施。 (2) 環境品質委員會應考量資料中心基礎建設對環境產生之影響,制定新的環境審查豁免措施。 4. 對符合FAST-41計畫(FAST-41 program)要求之資料中心基礎建設,加速其取得建設相關許可之過程。 該計畫名稱及內涵緣起於《修復美國地面運輸法》第41章節(Title 41 of the Fixing America's Surface Transportation Act)。一般而言,參與該計畫之建設,需滿足指定投資額、受指定組織贊助、於指定地點興建,或合乎特定環境法規等要求。合乎計畫要求之建設,可與主管機關協調取得建設相關許可之時間,並由聯邦許可改善指導委員會(The Federal Permitting Improvement Steering Council)下屬團隊協助進行專案管理。 5. 環境保護局(Environmental Protection Agency)局長應依法定權限,加速確認可供合格資料中心基礎建設使用的棕地(brownfields)。 依美國環境保護局定義,棕地是指含有危險物質、污染物的土地,因開發利用困難,需進行養護、排除開發障礙,或以其他方式開發。 6. 內政部、能源部應依法確定適合用於建設資料中心的土地,適當授權合格資料中心基礎建設業者在聯邦土地上進行建造。 參酌該行政命令意指,美國政府期許減少環境政策對人工智慧資料中心及相關設施的影響,透過快速推動建設進程,確保美國經濟繁榮,以及在科學、數位經濟領域的領導地位。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。