日本經濟產業省(METI)於2022年12月22日於官網公布「特定數位平臺之透明性及公正性評鑑」報告(特定デジタルプラットフォームの透明性及び公正性についての評価),首次針對擁有數位平臺的大型IT(Information Technology)企業完成交易機制透明性及公正性評鑑,並要求被評鑑之企業進行改善。
該評鑑依據「特定數位平臺之透明性及公正性提升法」 (特定デジタルプラットフォームの透明性及び公正性の向上に関する法律,以下稱「透明化法」),透明化法於2020年5月通過並已在2021年2月施行。其目的是為了提高交易之透明性以及公正性,具體指定「特定數位平臺」之企業,並列為評鑑對象,課予其有揭露或公開特定訊息,與進行改善的義務。
本次的評鑑內容,是依該法第4條第1項、第8條以及第9條第2項所定,交易條件之資訊揭露義務為基礎,由日本經濟產業大臣指定數位平臺企業(提供者の指定),進行個案評鑑(評価)並要求其改善(勧告)。依據個案評鑑之內容,日本針對數位平臺之透明度及公正性之判斷,歸納出下列具有共通性之指標:
1.企業有揭露交易條件之義務
2.企業有完善交易機制之義務
3.企業有積極處理用戶申訴與糾紛之義務
4.針對應用程式商店(アプリストア),課徵手續費(手数料)與會員付款結帳(課金)方式之限制,企業有詳細說明之義務
5.企業本身或關係企業與平臺其他用戶之間須公平競爭,例如:企業與直營或非直營商店之間,具有利害關係或有優待行為時,企業須公開其管理方針,並列入內部稽核事項,使其能檢視差別對待之正當性。
6.停用帳戶或刪除之手續,企業在30天之前,就該處置之內容和理由,對消費者有通知之義務。
7.退款或退貨之流程,企業有積極和具體說明之義務,且須將處置成果公開。
關於評鑑對象之指定,是依同法第4條第1項所授權,由日本經濟產業省進一步於2021年2月1日頒布政令,以事業種類與規模進行區分。此外,被列為評鑑對象之企業必須在每年5月底前,各自將企業內部的因應措施,提交總結報告,並由經濟產業大臣進行審閱。值得注意的是,依評鑑結果所要求的改善措施,原則上以企業自主改善為要旨,但日本政府目前正商討今後是否需要以強制力介入;對於被列為評鑑企業之後續改善措施及透明化法之推動方向,值得作為我國數位平臺治理政策之借鏡與觀察。
日本自民黨(目前執政黨)稅制調查會於去(2019)年12月12日公布「令和2年度稅制改正大綱」,並於同年12月20日經閣議決定,創設促進5G 導入稅制,決定對正在開發通訊網絡的行動通訊廠商,給予優惠稅收待遇。預計於今(2020)年通過「促進特定高端資訊通信等系統普及相關法律(暫定)」,於該新法施行日至2022年3月31日期間,受認定為「導入事業者(暫定)」之法人,導入符合「認定導入計畫(暫定)」之5G系統,取得5G系統設備並將其用於日本國內事業時,可選擇特別抵免取得價格的30%,或稅額扣除取得價格的15%,扣除上限額為法人稅額的20%。 我國於去(2019)年10月24日發布實施「公司或有限合夥事業投資智慧機械或第五代行動通訊系統抵減辦法」,亦規定有國內企業導入5G系統之抵減辦法,適用對象為同一課稅年度支出總金額100萬元以上,不逾10億元為限,可選擇支出金額5%抵減當年度應納營所稅額,或3年內支出金額3%抵減各年度應納營所稅額,抵減上限為當年度應納營所稅額30%,合併適用其他投資抵減時,當年度應納營所稅額50%。 我國與日本均可望透過優惠稅收待遇制度,促進5G 導入。隨著在地化5G的導入,預計可利用於工廠生產線自動控制和農產品效率化生育管理等智慧化資通訊系統,以促進智慧工廠或智慧農業的落地普及。
歐盟公布競爭與創新綱要計畫歐盟最近公布新通過的競爭與創新綱要計畫( Competitiveness and Innovation Framework Programme 2007-2013 , 簡稱: CIFP (2007-2013) ),預計自今( 2006 )年 11 月 29 日 生效適用 。 CIPF (2007-2013) 旨在強化歐盟競爭與創新的能量,以期透過均衡的經濟成長,促進知識社會與永續發展。 CIFP (2007-2013) 根據歐盟現今的發展策略- Lisbon Strategy ,亦是將重點放在如何協助中小型企業運用其創新的潛能,開發更高品質的產品。由於去年歐盟理事會重新定位 Lisbon Strategy 的重點在於激勵企業家精神、確保新創事業可獲得充份的風險資本挹注、鼓勵並引導融入環境友善精神的創新( eco-innovation )、善用 ICT 技術、促進資源的永續利用,故而 CIPF (2007-2013) 的計畫重點也放在如何落實前述政策目標,以使「競爭與創新」、「知識經濟」以及「永續發展」得以齊頭並進。 另 CIPF (2007-2013) 在第七期研發綱要架構( Seventh Framework Programme for research and technological development )執行期間( 2007-2013 )也將與其相輔相成,不過 CIPF (2007-2013) 重點不在研發補助,而是希望在研究與創新之間搭建橋樑,同時鼓勵各種形式的創新利用。舉例而言,如何協助將第七期研發綱要的成果進一步透過技術移轉方式鼓勵其商業化利用,即是 CIPF (2007-2013) 所要達到的任務之一,不過手段上 CIPF (2007-2013) 的經費主要會用於如何解決研究與創新之間的市場失靈問題。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。
美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試《演算法問責法案》(Algorithmic Accountability Act)於2022年4月由美國參議院提出,此法案係以2019年版本為基礎,對演算法(algorithm)之專業性與細節性事項建立更完善之規範。法案以提升自動化決策系統(automated decision systems, ADS)之透明度與公平性為目的,授權聯邦貿易委員會(Federal Trade Commission, FTC)制定法規,並要求其管轄範圍內之公司,須就對消費者生活產生重大影響之自動化決策系統進行影響評估,公司亦須將評估結果做成摘要報告。 《演算法問責法案》之規範主體包括:(1)公司連續三年平均營業額達5000萬美元,或股權價值超過2.5億美元者,並處理或控制之個人資料超過100萬人次;以及(2)公司過去三年內,財務規模至少為前者之十分之一,且部署演算法開發以供前者實施或使用者。ADS影響評估應檢視之內容包括: 1.對決策過程進行描述,比較分析其利益、需求與預期用途; 2.識別並描述與利害關係人之協商及其建議; 3.對隱私風險和加強措施,進行持續性測試與評估; 4.記錄方法、指標、合適資料集以及成功執行之條件; 5.對執行測試和部署條件,進行持續性測試與評估(含不同群體); 6.對代理商提供風險和實踐方式之支援與培訓; 7.評估限制使用自動化決策系統之必要性,並納入產品或其使用條款; 8.維護用於開發、測試、維護自動化決策系統之資料集和其他資訊之紀錄; 9.自透明度的角度評估消費者之權利; 10.以結構化方式識別可能的不利影響,並評估緩解策略; 11.描述開發、測試和部署過程之紀錄; 12.確定得以改進自動化決策系統之能力、工具、標準、資料集,或其他必要或有益的資源; 13.無法遵守上述任一項要求者,應附理由說明之; 14.執行並記錄其他FTC 認為合適的研究和評估。 當公司違反《演算法問責法案》及其相關法規有不正當或欺騙性行為或做法時,將被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)規定之不公平或欺騙性行為,FTC應依《聯邦貿易委員會法》之規定予以處罰。此法案就使用ADS之企業應進行之影響評估訂有基礎框架,或可作為我國演算法治理與人工智慧應用相關法制或政策措施之參酌對象,值得持續追蹤。