日本公布「特定數位平臺之透明性及公正性提升法」之透明性及公正性評鑑指標

日本經濟產業省(METI)於2022年12月22日於官網公布「特定數位平臺之透明性及公正性評鑑」報告(特定デジタルプラットフォームの透明性及び公正性についての評価),首次針對擁有數位平臺的大型IT(Information Technology)企業完成交易機制透明性及公正性評鑑,並要求被評鑑之企業進行改善。

該評鑑依據「特定數位平臺之透明性及公正性提升法」 (特定デジタルプラットフォームの透明性及び公正性の向上に関する法律,以下稱「透明化法」),透明化法於2020年5月通過並已在2021年2月施行。其目的是為了提高交易之透明性以及公正性,具體指定「特定數位平臺」之企業,並列為評鑑對象,課予其有揭露或公開特定訊息,與進行改善的義務。

本次的評鑑內容,是依該法第4條第1項、第8條以及第9條第2項所定,交易條件之資訊揭露義務為基礎,由日本經濟產業大臣指定數位平臺企業(提供者の指定),進行個案評鑑(評価)並要求其改善(勧告)。依據個案評鑑之內容,日本針對數位平臺之透明度及公正性之判斷,歸納出下列具有共通性之指標:

1.企業有揭露交易條件之義務
2.企業有完善交易機制之義務
3.企業有積極處理用戶申訴與糾紛之義務
4.針對應用程式商店(アプリストア),課徵手續費(手数料)與會員付款結帳(課金)方式之限制,企業有詳細說明之義務
5.企業本身或關係企業與平臺其他用戶之間須公平競爭,例如:企業與直營或非直營商店之間,具有利害關係或有優待行為時,企業須公開其管理方針,並列入內部稽核事項,使其能檢視差別對待之正當性。
6.停用帳戶或刪除之手續,企業在30天之前,就該處置之內容和理由,對消費者有通知之義務。
7.退款或退貨之流程,企業有積極和具體說明之義務,且須將處置成果公開。

關於評鑑對象之指定,是依同法第4條第1項所授權,由日本經濟產業省進一步於2021年2月1日頒布政令,以事業種類與規模進行區分。此外,被列為評鑑對象之企業必須在每年5月底前,各自將企業內部的因應措施,提交總結報告,並由經濟產業大臣進行審閱。值得注意的是,依評鑑結果所要求的改善措施,原則上以企業自主改善為要旨,但日本政府目前正商討今後是否需要以強制力介入;對於被列為評鑑企業之後續改善措施及透明化法之推動方向,值得作為我國數位平臺治理政策之借鏡與觀察。

相關連結
你可能會想參加
※ 日本公布「特定數位平臺之透明性及公正性提升法」之透明性及公正性評鑑指標, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9065&no=64&tp=1 (最後瀏覽日:2026/04/06)
引註此篇文章
你可能還會想看
何謂「數位藥丸(digital pill)」?

  「數位藥丸(digital pill)」顧名思義就是將藥物與數位科技結合,藥丸上載有感測器(sensor),在進入人體後傳輸訊號至病人身上的訊號接收器貼片,相關資訊再被傳送給醫療人員。由於許多研究顯示約有半數病人並不會完全遵照醫師指示服藥,使治療效果不彰,並造成醫療資源之浪費。而電子藥丸有助需長期頻繁用藥的族群定時服藥與協助醫療機構追蹤病人服藥狀況,並在臨床試驗中持續觀察病患用藥後的生理反應。   日前美國食品藥物管理署(Food and Drug Association)已接受Proteus Digital Health公司之上市審核申請,不久之後人們將有望享受到此數位藥丸帶來的便利。不過其亦存有一些疑慮以及待克服的技術問題,例如:個人資料之保護措施、控制藥物釋放之系統故障或遭惡意攻擊時之應變等等問題。同時,雖然許多人都認為數位藥丸對病人之疾病控制有利,但是病人之拒絕治療權卻可能因而犧牲,雖然醫生不能強迫病人服藥,但法院強制處分常會牽涉特定的治療程序,此時若病人拒絕服藥,其假釋可能被撤銷,該技術將可能成為一個監視的手段。

歐盟將研修REACH有關規定 強制含有奈米物質產品之標示

  隨著奈米產品的日漸普及與多樣化,歐盟考慮近期法制化奈米產品的標示要求,未來將於歐盟「化學物質登記評估授權及限制規則」(Registration, Evaluation, Authorisation and Restriction of Chemicals,簡稱REACH)中有關化學物質登記事項強制要求奈米消費產品的標示,以確保奈米物質的可追溯性(traceability)。     歐盟會員國部長級會議—歐盟理事會(The Council of the European Union,亦以拉丁文簡稱Consilium)作為歐盟層級主要的決策機關,為了政策協調的一致性與長期穩定性自2007年起採三國為一組的方式輪值擔任主席國(trio presidencies),每一國負責六個月的期間,主席國扮演推動立法與政策決定的推手角色並負責歐盟會員國共識的達成,2010年7至12月由比利時擔任歐盟理事會的主席。有關奈米物質產品管理政策,可由日前比利時氣候與能源部長並負責消費者與環境保護的Paul Magnette公開表示的談話中窺見未來歐盟法規調整的大方向:「奈米物質逐漸普及於消費產品與各種日常用品,但是我們對奈米物質的了解卻很匱乏。雖然對於在歐盟日益增加的奈米物質使用無須過渡緊張,但是我們仍有義務在最小限度內做到應有的檢視以確保環境與健康安全。因此,目前缺乏事前警告與標示其成分及潛在毒性的奈米技術發展是無法令人接受的」。     奈米產品製造商宣稱目前尚無任何證據顯示奈米產品對人體有危害,因此,歐盟官方在採取強制標示相關規定以前如擬暫停奈米產品的生產亦可能遭遇極大阻力,然而Magnette同時表示,如對奈米產品採取「沒有(安全)證據就沒有市場(no data, no marke)」的政策也可能太過限制,但是目前對於奈米產品只是宣稱其優點的產業現況,確實太過扭曲消費者應被充分告知資訊的權利。他強調,如生產方不盡力將奈米產品的潛在風險降到最低,奈米產品可能如同基改作物(GMO)一樣被民眾摒棄於歐盟市場之外。     在2011年底以前歐盟執委會(The European Commission)將完成第二輪的歐盟法規檢視,執委會企業與工業委員會主管化學政策官員Maila Puolamaa表示,奈米物質的管理將會納入REACH有關法制中,這部分將會成為現階段法規檢視的重點之一。年產量一公噸以下的奈米物質登記將會簡化,奈米產品上市也應自動標示其成分。Magnette表示比利時推動REACH法規檢視會以幾個方向為重點:第一,要求奈米產品強制標示以使消費者了解其所購買產品含有奈米物質;第二,確保生產鏈的可追溯性以能追溯奈米物質的源頭;第三,確立歐盟的適當的風險管理與評估法規;第四,鼓勵各國儘速自行負責建立自己的評估、管理與資訊監控作法以因應此波奈米快速發展時期的變化;第五,奈米產品標示的項目法制化等。

德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求

  德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。   諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。   綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。

美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件

美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。 該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。 當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。 針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。 其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。 最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。

TOP