韓國公平交易委員會(Fair Trade Commission, FTC)於2023年12月19日宣布將制訂《平臺競爭促進法》(Platform Competition Promotion Act, PCPA),針對市場中大型線上平臺業者,提前認定為具有市場主導地位,禁止提供優惠待遇(preferential treatment)及搭售(tie-sale)等不公平競爭行為,保護小型企業及避免消費者受到大型線上平臺業者壟斷市場的影響。
《平臺競爭促進法》將透過營業收入、使用者數量、市場份額及市場參進障礙等特定條件,認定平臺業者是否具有市場主導地位,被指定具有主導地位的業者則會被禁止從事以下行為:(1)自我偏好行為,禁止平臺業者在平臺上以較競爭者更有利之方式,曝光其本身販售的產品;(2)搭售行為,迫使平臺使用者在購買平臺所提供的產品或服務時,必須同時購買其他產品;(3)限制多棲(multi-homing)或禁止使用者使用其他平臺;(4)要求比其他平臺更優惠的交易條件。
依據韓國《公平交易法》現行法規規定,企業從事不公平競爭行為,最多僅能處以其營業額6%的罰鍰;若於《平臺競爭促進法》制定後,被認定具有市場主導地位的平臺業者從事不公平競爭行為時,將依《平臺競爭促進法》最高可處其營業額10%之罰鍰。平臺業者被委員會指定為具市場主導地位的平臺時,業者仍可在(1)指定前提交意見;(2)指定後提出異議,或以(3)提出行政訴訟等方式保障其權利。
我國公平交易委員會於2022年12月提出數位經濟競爭政策白皮書,內容包含數位經濟下可能面臨的議題及執法立場與方向。近來韓國科技產業與社會經濟發展屢次成為我國相關產業比較對象,未來可持續關注韓國對於跨領域科技產業影響市場公平競爭之治理發展,作為我國因應數位經濟競爭法相關議題之參考基礎。
德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現
歐盟考慮設立中央網路犯罪防制機構歐盟部長理事會(Council of Ministers)已於今(2010)年4月27日要求執委會檢視其網路犯罪防制目標,並調查是否有需要設立一中央機構,以儘速達成下列幾項目標,包括:提高調查人員、檢察官、法官及法院相關人員的專業標準、鼓勵各國警方資訊分享以及協調歐盟27個會員國間打擊網路犯罪所採取之方式。 部長理事會提議由執委會進行設立專責機構之可行性調查研究,擬由該專責機構負責前述目標之達成,亦須評估並監督預防性與調查性措施之實行。該調查研究中應特別考量欲設立專責機構之目的、範圍及可能的經費來源,另外亦需考慮是否將其設置於位於海牙的歐盟刑警組織(European Police Office, Europol)中。考量網路犯罪跨國界之特性,為使打擊網路犯罪之相關措施更有效,必須有良好的國際合作及司法執行互助配合。部長理事會認為藉由專責機構之設立,不僅能夠協助培訓法官、警方及檢察官,亦能做為聯繫網路使用者、受害者組織及其他私部門的常設機構。 本部長理事會將歐盟現有之網路犯罪防制相關計畫分成短、中、長期計畫,要求執委會定期追蹤各項相關計畫之執行情況,亦將設立網路犯罪防制專責機構列入執委會後續四年所持續執行有關犯罪與安全治理的斯德哥爾摩計畫(Stockholm Programme)中。 此外,部長理事會也呼籲歐盟各國追蹤用於網路犯罪之IP位置及網域名稱,同時要求執委會協助建立共通的廢止機制,以進行網路犯罪防制。 位於希臘的歐盟網路與資訊安全機構(European Network and Information Security Agency, ENISA),是現階段歐盟網路犯罪防治的研究機構,其進行資訊安全威脅行為之調查,並提供相關建議,但僅是資訊服務單位,未實際投入打擊犯罪行動。
高智發明(Intellectual Ventures)揭開其專利寶庫擁有專利但不生產商品,以購買專利與主張專利為主要商業模式的專利蟑螂,近來在美國引起眾多討論,2013年6月,美國白宮更正式發表聲明,不但要求行政機關打擊專利蟑螂,更建議立法機關作出相關修法。 高智發明(Intellectual Ventures,以下簡稱IV)自2001年創立以來,擁有約7萬個專利,其中4萬個屬於IV商業化專案,為主張專利之武器群。一向不承認自己屬於專利蟑螂的IV,2013年12月公開表列出3萬3千個用以主張專利侵權獲利之專利,包括無線技術、半導體技術、硬體、以及生物技術等高值專利;至於其他未公開的專利,IV則稱受限於第三方的保密義務無法公開。 IV宣稱此舉目的在於提供潛在專利被授權人或買受人一個購物清單;然而更為可能的,是面對同年11月底甫通過眾議院投票之創新法案帶來的壓力,所釋出之善意表示退讓。 前述公開清單目前在IV官網上公開提供下載與搜尋,對於企業或事務所,將來受到不知名公司控告專利侵權時,可以檢視這份清單,瞭解該案是否為IV所主導,但實際在訴訟策略上該如何運用學界與實務界尚未有明確的作法,值得繼續觀察。