韓國公平交易委員會(Fair Trade Commission, FTC)於2023年12月19日宣布將制訂《平臺競爭促進法》(Platform Competition Promotion Act, PCPA),針對市場中大型線上平臺業者,提前認定為具有市場主導地位,禁止提供優惠待遇(preferential treatment)及搭售(tie-sale)等不公平競爭行為,保護小型企業及避免消費者受到大型線上平臺業者壟斷市場的影響。
《平臺競爭促進法》將透過營業收入、使用者數量、市場份額及市場參進障礙等特定條件,認定平臺業者是否具有市場主導地位,被指定具有主導地位的業者則會被禁止從事以下行為:(1)自我偏好行為,禁止平臺業者在平臺上以較競爭者更有利之方式,曝光其本身販售的產品;(2)搭售行為,迫使平臺使用者在購買平臺所提供的產品或服務時,必須同時購買其他產品;(3)限制多棲(multi-homing)或禁止使用者使用其他平臺;(4)要求比其他平臺更優惠的交易條件。
依據韓國《公平交易法》現行法規規定,企業從事不公平競爭行為,最多僅能處以其營業額6%的罰鍰;若於《平臺競爭促進法》制定後,被認定具有市場主導地位的平臺業者從事不公平競爭行為時,將依《平臺競爭促進法》最高可處其營業額10%之罰鍰。平臺業者被委員會指定為具市場主導地位的平臺時,業者仍可在(1)指定前提交意見;(2)指定後提出異議,或以(3)提出行政訴訟等方式保障其權利。
我國公平交易委員會於2022年12月提出數位經濟競爭政策白皮書,內容包含數位經濟下可能面臨的議題及執法立場與方向。近來韓國科技產業與社會經濟發展屢次成為我國相關產業比較對象,未來可持續關注韓國對於跨領域科技產業影響市場公平競爭之治理發展,作為我國因應數位經濟競爭法相關議題之參考基礎。
世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。
網路數位內容權利保護,牽涉各方角力iPod的成功,塑造了網路數位內容傳播的新商業模式,但對著作人權利保護團體來說,新科技與新產品對著作權人的權利會造成怎樣的影響,則是他們所高度關心的。 目前,著作權權利團體包括「美國唱片協會」(RIAA)與「美國電影協會」(MPAA)正在美國推動一項立法,希望透過法律的規定,限制未來數位媒體接收設備的若干科技發展。依法案推動者目前的構想,任何設備如能對於從數位網路上接收或下載的數位內容做任意的修改,便可能構成違法。共和黨籍參議員史密斯(Senator Gordon Smith)已表明支持此項立法。 此一立法運動,已引起各界高度的關注,包括科技廠商及民間組織在內,也表示質疑的態度。如何在保護著作權人權利與促進新科技發展之間,取得一個適當的平衡點,會是一個愈來愈重要的議題。
美國最高法院裁定暫停執行環保署「清潔電力計畫」美國最高法院在2016年2月9日,以暫時處分裁定美國環保署在「清潔電力計畫」(Clean Power Plan)下所擬訂的「對固定污染源的碳排指引:電業發電單位」( Carbon Pollution Emission Guidelines for Existing Stationary Sources: Electric Utility Generating Units ),在北新(Basin)電力公司等對其所提起訴訟期間,暫緩實施。 所謂環保署「清潔電力計畫」(Clean Power Plan),係為因應氣候變遷,在2015年8月由美國總統在演說中公布,並於同年10月由美國環署公布「對固定污染源的碳排指引:電業發電單位」最終內容。該計畫的具體目標乃以2005為標準,在2030減少碳排32%,各州並得自行訂訂計畫;預期的計畫效果則包含:保護一般的美國家庭、促進經濟,與協助一般美國家庭節省費用。 由於該案涉及大規模以天然氣、風力與太陽能取代燃煤電廠,2015年的10月23日至11月5日間,由北新與其他近60家電業向聯邦哥倫比亞特區上訴法院(United States Court of Appeals for the District of Columbia Circuit)提出申請暫緩實施之聲請。2016年1月21日 該上訴法院駁回聲請,同月26日原本提出聲請的電業再向最高法院提出暫緩實施之聲請。 在向最高法院的聲請中,業者主張:因系爭指引所規範排放限制量為任何現行發電業者(Electricity Generating Units, EGUs)無法透過現行科技或流程改善單獨達成,將迫使整個電力產業作出轉變。業者並指出,由於淘汰既有電廠與建立新的再生能源計畫皆須長時間的努力來執行,若欲在2022年達成相關目標,電業必須現在就展開行動。 而最高法院也認同業者的主張,指出:因訴訟曠日廢時,若不暫緩實施系爭指引,立即、無法回復、且特別重大的損害將持續發生;且美環署仍將取得該計畫所欲取得之效果,縱使系爭指引最終被廢止。 基於上述理由,最高法院以暫時處分裁定系爭措施暫緩實施。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。 德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。 例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何? 本份指南則提出六項建議: 促進企業內部及外部訂定相關準則 提升產品及服務透明度 使用相關技術應為全體利益著想 決策系統的可靠性仍取決資料的準確性。 重視並解決解決機器偏差問題 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。