歐盟執行委員會(European Commission,下稱執委會)於2024年7月11日宣布與蘋果公司和解並接受蘋果公司提出的承諾,未來十年在歐洲經濟區(European Economic Area, EEA)內允許第三方行動錢包提供者存取iOS裝置的NFC(Near-Field-Communication)功能,並設有監督受託人(monitoring trustee)進行監督。
自2020年6月執委會對蘋果公司啟動反壟斷調查,並於2022年5月執委會提出聲明認為蘋果公司在iOS裝置行動錢包市場具有主導地位,對競爭對手產生排他性影響,涉及違反《歐盟運作條約》(Treaty on the Functioning of the European Union, TFEU)第102條禁止濫用市場地位規定。蘋果公司為解決涉及違法問題,於2024年1月承諾提供第三方行動錢包提供者和支付服務提供者應用程式介面(Application Programming Interfaces, APIs)存取iOS裝置的NFC功能,並經由執委會1個月的第三方意見諮詢後,蘋果公司根據該意見修改部分內容,並提出以下承諾:
● 提供終端設備支付功能。
● 取消存取NFC功能的資格條件。
● 允許第三方行動錢包提供者為存取NFC功能預先設置支付應用程式。
● 持續更新架構以符合行業標準。
● 允許開發者提示使用者設定預設支付應用程式並導向設定頁面。
● 縮短爭端解決期程。
● 由監督受託人提供獨立性及程序保證。
執委會認為蘋果公司提出的承諾能有效解決蘋果公司限制第三方行動錢包提供者在iOS裝置提供NFC支付功能的競爭,執委會與蘋果公司和解並承認該承諾對蘋果公司產生法律約束力,監督受託人將定期向執委會報告,執委會與蘋果公司和解並結束為期4年的調查,但蘋果公司仍須承擔《數位市場法》(Digital Markets Act)等其他法規之義務。
相較於Android系統開放NFC功能提供行動錢包存取,iOS系統對行動錢包存取NFC功能有所限制,澳洲競爭與消費者委員會(Australian Competition and Consumer Commission)及美國司法部對於蘋果公司壟斷iOS裝置的行動錢包市場也展開調查或訴訟,蘋果公司面臨行動錢包市場競爭的挑戰,在歐洲經濟區內可能掀起行動錢包市場競爭的蓬勃發展,是否帶動在其他國家或地區的法制政策改變,可持續觀察各國行動錢包市場動態。
日本文化廳文化審議會著作權分科會於2018年2月13日,出具分科會報告書,內容說明著作權法修正之方向。書中提及「重新檢視並修正違法下載之態樣」一點,擬將違法下載之態樣及動作,由「影音」擴及到所有靜態圖文(如漫畫、照片、小說、雜誌及論文等),「下載」擴及「截圖」(スクショ,screenshot)。 此次修法,起因於近來日本大量出現線上盜版漫畫網站,推估其半年所造成之損失可達4000億日幣以上。該報告書公布後,隨即湧現大量反對之聲浪。反對者認為修法之弊大於利,日本漫畫學會對此發表反對聲明,會長竹宮惠子對於修法表示憂心,認為修法將導致以下問題: 阻礙創作研究(如二次創作); 創作萎縮(日常下載及剪輯將被禁止); 難以判斷網路靜態圖文是否為違法上傳; 即使「下載」違法化,仍然無法根除線上盜版漫畫流通平台。 報告書中亦提及,在個人部落格及需加入會員之社群網(SNS)上傳或下載未經著作權人同意而公開之著作,亦屬違法。倘若為全書掃描上傳等惡性重大之行為,應科以刑責。 針對上述疑慮,報告書中的確未排除修法後將造成著作物在網路上利用萎縮之可能,然仍強調應透過官民間之合作努力,傳達正確之修法内容。並由出版社端導入「ABJ Mark」,推動正版漫畫流通平台,透過科技推動盜版網頁近用警示制度,使大眾知悉其行為即將侵害著作權等。由於法令修正之内容,影響人民日常生活甚鉅,後續修法將在各團體間如何折衝,上述措施能否普及或啟發人民觀念,值得後續持續關注。
藥品監管機構負責人組織與歐洲藥品管理局聯合巨量資料指導小組發布2021-2023年工作計畫,提高巨量資料於監管中之效用藥品監管機構負責人組織(Heads of Medicines Agencies, HMA)與歐洲藥品管理局(European Medicines Agency, EMA)聯合巨量資料指導小組(HMA-EMA joint Big Data Steering Group, BDSG)於2021年8月27日發布「巨量資料指導小組2021-2023年工作計畫」(Big Data Steering Group Workplan 2021-2023),將採以患者為焦點(patient-focused)之方法,將巨量資料整合至公衛、藥物開發與監管方法中,以提高巨量資料於監管中之效用。指導小組將利用「資料分析和真實世界訊問網路」(Data Analysis and Real World Interrogation Network, DARWIN EU)作為將真實世界資料整合至監管工作之關鍵手段; DARWIN EU諮詢委員會(Advisory Board)已於2021年建立,DARWIN EU協調中心(Coordination Centre)亦將於2022年初開始運作。 為確保資料品質與代表性,未來工作計畫將與「邁向歐洲健康資料空間–TEHDAS」(Towards A European Health Data Space – TEHDAS)合作,關注資料品質之技術與科學層面,並將於2022年提出第一版「歐洲監管網路資料品質框架」(data quality framework for the EU Regulatory Network)、「真實世界資料來源選擇標準」(criteria for the selection of RWD sources)、「詮釋資料優良規範指引」(metadata good practice guide)、「歐盟真實世界資料公用目錄」(public catalogue of European RWD)等規範。 此外,工作計畫將於2021年底舉辦「學習計劃」(learnings initiative)研討會,討論包括EMA人用藥品委員會(Committee for Medicinal Products for Human Use, CHMP)對於真實世界證據於藥品上市許可申請(Marketing Authorization Application, MAA)、適應症擴張(extensions of indications)之審查,以及過去真實世界資料分析試點於委員會之決策等議題,以利後續指引之修正。 最後,工作計畫預計於2021年底完成「健康照護資料二次使用之資料保護問與答文件」(question and answer document on data protection in the context of secondary use of healthcare data),以指導利益相關者與促進公共衛生研究,並發布由歐盟監管網路(EU Regulatory Network)同意之對於藥品監管(包括巨量資料)之資料標準化戰略。
德國公佈聯邦政府人工智慧戰略要點德國政府於2018年7月18公佈「聯邦政府人工智慧戰略要點」(Key points for a Federal Government Strategy on Artificial Intelligence),係由德國聯邦經濟事務及能源部、聯邦教育及研究部,與聯邦勞動及社會事務部共同撰寫而成。 德國政府表示該要點將作為推動人工智慧技術與產業發展的基礎方針,並希望以負責任的方式以及朝向社會利益發展的方向進行人工智慧開發與應用。 德國人工智慧戰略要點摘要如下: 1. 研究能量:必須大幅增加研究支出並且爭取世界一流人才。 2. 人工智慧能力應泛分佈在社會各處:各學科與產業領域皆需要人工智慧。 3. 資料作為人工智慧發展的基礎:資料是人工智慧發展的重要關鍵,德國的資料發展重點將放在資料品質的強化。 4. 基礎設施:人工智慧中重要的技術「深度學習」,不僅需要大量資料,同時還需要強大的計算能力,德國需要加強計算能力的硬體設備。 5. 經濟應用:德國數位化發展的下一步需要仰賴人工智慧技術,尤其是中小企業採納人工智慧技術方面將會是焦點之一。 6. 社會法制:人工智慧發展過程中牽涉許多道德以及法制、監管議題,德國政府認為這些都必須請不同利害關係人共同公開討論。 7. 國際合作:德國作為歐盟會員國之一,未來的人工智慧發展將力求與歐盟各國合作。 整體而言,德國的人工智慧戰略著重在建立人工智慧生態系統,並強調人與機器之間的合作關係,為人工智慧產業發展奠定良好基礎。德國政府將基於此要點繼續制定進一步的人工智慧戰略,並預計將於2018年12月公佈德國的人工智慧戰略完整報告。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。