近年來,受到物聯網和人工智慧技術高度發展影響,大數據的重要性逐漸提昇。為避免資料不當收集和資料被不當佔據等可能妨礙競爭之行為,以利業者透過資料收集、累積和分析等方式,創造出新的產業價值,日本公平交易委員會於競爭政策研究中心設置「資料與競爭政策檢討會」,自2017年1月至6月間舉辦數次檢討會,並於2017年6月6日公布《資料與競爭政策檢討會報告書》。該書一共5章,內容為第1章檢討背景,第2章回顧資料環境變化與利用現狀,第3章檢討現今競爭政策及《獨占禁止法》,第4章資料收集、利用相關行為,以及第5章企業結合審查等與資料利用相關之事項。
報告書指出,業者不當收集資料和不當佔據資料等行為,均有適用《獨占禁止法》之可能。前者係指具有優勢地位的業者,利用關係要求有業務往來的企業提供資料等行為,如原本只需要性別和年齡資訊,卻額外要求對方提供住所、電話等訊息;後者則係指業者利用不正當方法與顧客聯繫,排除其他競爭者等行為,如排他性交易、拒絕交易、差別待遇等。
本文為「經濟部產業技術司科技專案成果」
自德國「工業4.0」,開啟所謂第4次工業革命以來,各國政府皆相繼投入資源進行相關計畫,如美國之「先進製造夥伴計畫(Advanced Manufacturing Partnership,AMP)」中國大陸之「中國製造2024」,以及我國之「生產力4.0」等等。 而日本不同於上述其他國家,日本版的工業4.0稱為「工業4.1J」,該計畫並非由國家來主導,而係由民間公司Virtual Engineering Community(VEC)及NTT Communications於2015年3月10日所啟動的一項實證實驗,旨在確認「工業4.1J」之各項技術要件,並且該項目成果非僅提供給VEC之會員,將對所有企業及公眾公開。而所謂的「4.1」表示安全級別比工業4.0更高一級,「 J」則表示源自於日本(Japan)。 日本之「工業4.1J」的運行架構說明如述:首先,將會利用控制系統蒐集相關數據;第二,在雲端平台上記錄及累積數據資料;第三進行即時分析;最後則是透過專家進行事件檢測、分析故障原因並恢復生產、提出安全改善建議等等。
美國商務部修改《出口管制規則》限制華為取得由美國技術及軟體設計製造的半導體產品美國商務部工業及安全局(Bureau of Industry and Security, BIS)於2020年5月15日公告,為防止中國大陸華為取得關鍵技術,修正美國《出口管制規則》(Export Administration Regulations, EAR)第736.2(b)(3)條第(vi)款「外國直接產品規則」(Foreign-Produced Direct Product Rule),限制華為透過國外廠商,取得包含美國技術及軟體設計製造在內的半導體產品,以保護美國國家安全。並於「實體清單」(Entity List)增加註腳一(footnote 1 of Supplement No. 4 to part 744)之規定,使部分出口管制分類編號(Export Control Classification Number, ECCN)第3(電子產品設計與生產)、4(電腦相關產品)、5(電信及資訊安全)類之技術所製造的產品,不能出口給華為與分支企業。 自2019年起,BIS將華為及其114個海外關係企業列入實體清單以來,任何要出口美國產品給華為的企業,必須事先取得美國出口許可證;然而,華為及其海外分支機構透過美國委託海外代工廠商生產產品事業,繞道使用美國軟體和技術所設計的半導體產品,已破壞美國國家安全機制與設置出口管制實體清單所欲達成之外交政策目的。本次為修補規則漏洞調整「外國直接產品規則」,不僅限制華為及其實體清單所列關係企業(例如海思半導體),使用美國商業管制清單(Commerce control list, CCL)內的軟體與技術,設計生產產品。美國以外廠商(例如我國台積電)為華為及實體清單所列關係企業生產代工,使用CCL清單內的軟體與技術,設計生產的半導體製造設備與產品,亦將同受《出口管制規則》之拘束。這代表此類外國生產產品,從美國以外地區,透過出口、再出口或轉讓給華為及實體清單上的關係企業時,皆需取得美國政府出口許可證,影響範圍擴及全球產業供應鏈。
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。
自駕車之發展與挑戰-以德國法制為借鑑