中國大陸商務部於2021年1月9日公布《阻斷外國法律與措施不當域外適用辦法》(商務部令2021年第1號,簡稱《辦法》),以保護中國大陸公民、法人或其他組織的合法權益,不受他國法律與措施的不當侵害。過去,美國等國家透過出口管制推行單邊主義,限制中國大陸企業的國際經貿活動空間,顯示外國法律與措施的不當域外適用,對中國大陸經濟發展造成不利影響。《辦法》因此借鑒歐盟於1996年制定《抵制第三國立法域外適用效果及行動條例》(Council Regulation (EC) No 2271/96)的立法經驗,拒絕承認外國法律和措施的域外效力,以維護國際經貿發展權益。《辦法》由國務院商務部負責評估和確認外國法律與措施是否存在不當域外適用情形,發布「不得承認、不得執行、不得遵守有關外國法律與措施禁令」;中國公民、法人或者其他組織若因外國法律與措施的域外適用遭受重大損害,得向中國法院提起訴訟,要求獲益當事人賠償損失,以此作為中國大陸對外貿易之必要反制措施。《辦法》所建立的阻斷工作機制架構說明如下: 及時報告:依據第5條,中國大陸公民、法人或其他組織遇到外國法律與措施不當域外適用,即禁止或限制其與第三國(地區)開展正常經貿及相關活動者,應在30日內報告。 評估確認:依據第6條,關於外國法律與措施是否存在不當域外適用情形,商務部應結合各種因素進行評估確認。 發布禁令:依據第7條,經評估確認外國法律與措施存在不當域外適用情形,商務部得發布「不得承認、不得執行、不得遵守有關外國法律與措施的禁令」。第8條,亦由商務部負責「豁免遵守禁令」申請案之否准。 司法救濟:依據第9條,因外國法律與措施的不當域外適用遭受損失,中國大陸公民、法人或其他組織可在中國大陸國內法院起訴並請求損害賠償。 處罰制度:依據第13條,對違反如實報告義務和不遵守禁令之行為,給予相應警告、責令限期改正,並根據情節輕重處以罰款。
韓國首爾高等法院部分駁回高通提出的行政訴訟韓國首爾高等法院第七行政庭(下稱:韓國高等法院)於2019年12月4日部分駁回高通對韓國公平交易委員會(Korea Fair Trade Commission,下稱:韓國公平會)提起的行政訴訟,高通仍需支付鉅額罰鍰。 韓國公平會於2016年12月28日,曾針對高通干涉數據機晶片組(Modem Chipset)的對手廠商之商業活動,進而破壞市場競爭一事,開出史上最高額的行政罰鍰共1.0311兆韓元。當時韓國公平會指出,高通的標準必要專利(Standards-Essential Patents, SEPs)授權不符合「公平、合理、非歧視原則」(Fair, Reasonable and Non-Discriminatory, FRAND),希望藉由開罰徹底矯正高通的商業模式,不讓高通透過該商業模式不合理地維持並擴張其數據機晶片的獨佔地位,進而壓迫數據機晶片業者(如:聯發科或英特爾)和手持裝置(Handset)業者。高通不滿韓國公平會之行政處分,逕向韓國高等法院提出撤銷行政處分之訴,並請求暫緩執行。然而,高通所提出的暫緩執行請求,於2017年11月27日即被韓國高等法院駁回。至於高通所欲提起的撤銷行政處分之訴,韓國高等法院則於本次駁回。 儘管韓國高等法院對韓國公平會的部分決議積極地表示贊同,並非照單全收,韓國高等法院於裁判要旨中指出:韓國公平會針對「全面性的專利組合授權」(Comprehensive Portfolio Licensing)請求矯正措施(Remedy)一事係屬違法,換言之,高通毋須逐一重啟授權談判。至於罰鍰和其他決議,韓國高等法院則認為有其合理性。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。
以「公私夥伴關係(PPP)」發展科技之作法近來常聽聞各國以公私夥伴關係(Public-Private Partnership, PPP)之模式發展產業科技,PPP故名思義,係指結合公私部門之力量,以共同達成公共政策目標之合作模式。公部門可借重私部門的專業、經驗與品質,使其服務更有效率,私部門也可得到政府與政策之支持。 如今科技進步程度往往可代表ㄧ國之競爭力,惟科技研發需投入大量成本,因此各國多有針對科研補助之相關政策,從早年的單方補助,到如今強調公私合作進行科研的PPP模式。各國亦提出各種產官學合作研發的模式或組合之立法或相關政策。例如成立獨立非營利法人讓各項研發活動進行更方便、研究設施設備共享更容易的日本「技術研究組合」、芬蘭之SHOKs。荷蘭近來亦大力推行PPP研發之策略。德國之高科技領先戰略計畫( Spitzencluster-Wettbewerb)亦以區域聚落(該區域聚落即包含產業界、大學及其他相關學術機構)為單位,藉競爭給予補助的方式,促成該地區產官之緊密合作。