2019年7月1日,日本經產省依據《外匯及對外貿易法(以下簡稱外匯法)》,對於產品技術的輸出與輸入進行適當之進出口管制,要求日本國內向南韓進行輸出之行為,必須通過嚴格的出口管制審查。日本經產省表示,進出口管制制度係建構在國際信賴關係的基石之上,近年來有相關產品技術輸出南韓管制不當之案例,已造成日韓兩國間信賴關係嚴重損害(例如二戰強徵勞動力的訴訟案件爭議,以及日本提供的材料可能從南韓非法轉運至北韓、被轉為軍事用途之風險等),故提出兩項政策以為反制,包括將南韓從白色國家名單移除,及提升對南韓出口管制審查標準等,具體說明如下。
1.修正日本對南韓之輸出貿易管理列表
基於《外匯法》第48條,擬修正外匯法之政令《輸出貿易管理令》附件三類別表,將南韓從日本安全保障、友好貿易夥伴的「白色國家」列表中刪除,透過監管改革嚴格審查對南韓的出口管制制度。
2.針對向南韓出口之電子原料實施嚴格管制審查與核發特定出口許可證
自2019年7月4日起,針對日本向南韓出口的三項半導體關鍵電子原料,含氟聚醯亞胺(Fluorine Polyimide)、光阻劑(Resist)、蝕刻氣體(Eatching Gas)以及轉讓相關連的製造技術等,均被排除於綜合出口許可證制度範圍外,須額外單獨申請特定出口許可證並進行出口審查。
針對日本管制措施,南韓產業通商資源部(Ministry of Trade, Industry and Energy, MOTIE)表示強烈抗議,認為日本在未提供任何具體證據的情況下逕行對南韓實施出口管制,並將南韓從白色國家名單中刪除,已違反WTO自由與公平貿易原則(Free and Fair Trade),構成貿易壁壘與歧視性差別待遇,嚴重威脅日韓經濟夥伴關係,恐將引發兩國企業及全球產業供應鏈動盪,對自由貿易造成負面影響。南韓政府已強烈要求日本取消對於出口管制的不公平措施,撤銷將南韓從白色國家名單移除之《輸出貿易管理令》修正案,同時積極尋求聯合國安全理事會介入調查。
本文為「經濟部產業技術司科技專案成果」
鑑於網際網路發達,日常生活中之購物、儲匯業務均能透過網路完成,為生活增加許多的便利,然犯罪行為亦隨著科技之發展,悄悄的從傳統社會轉移到虛擬世界。根據美國司法部公佈的資料顯示,目前因違反美國 18 U.S.C. §1030 電腦詐欺法規定( Fraud and Related Activity in Connection with Computers )而進入司法程序的電腦犯罪案件,主要包括:竊取私人資料、線上非法交易(網路詐欺等)、駭客攻擊行為、製作或散佈病毒、遙控僵屍網路、竄改信用卡資料等行為。其中 Jeanson James Ancheta 案是一個具指標意義的案件。 今年五月洛杉磯 R. Gary Klausner 法官做出 Jeanson James Ancheta 案的判決,該案是美國境內第一起因為使用僵屍網路( botnets )而被判刑的案件。 Ancheta 被控攻擊政府網站、對數千台電腦主機進行駭客攻擊,並利用被攻擊的電腦串聯成僵屍網路,進行寄發廣告信或具破壞性的駭客攻擊以牟利而遭起訴。本案判決 Jeanson James Ancheta 因散佈電腦病毒、違反電腦詐欺法( Computer Fraud Abuse Act )、違反垃圾郵件法案( CAN-SPAM Act )被判以 57 個月的有期徒刑。 根據助理檢察官 Aquilina 表示,該案件是美國近年來處理電腦犯罪案件中,量刑最重的一個判決,希望透過此一判決,對僵屍網路操控者( botmasters )及居心不良的駭客產生嚇阻之效果。
加州消費者隱私保護法修正法案重點說明隨著個人資料保護意識的興起,各國也持續增修法律來保護人民權益以及協調產業標準,但這變動的過程會對本來就複雜的法律結構帶來更多挑戰。 如美國同時會有聯邦法與州法兩個層次的法律,當兩者分別發展隱私權相關法律規範時,難免會缺乏協調,出現定義不明的重疊規範,進而提高企業之法令遵循成本與管理成本。最終導致的結果,就是非必要地降低了產業發展速度,以及提高了消費者獲得服務的成本。 日前美國加州政府修改了首部以消費者個人資料權利為規範之州級法律「加州消費者隱私保護法(California Consumer Privacy Act, CCPA)」,使該部法案對於個人資料保護與利用之規範日漸完備,並減少與聯邦政府重複管轄項目,進而達到合理降低州內企業的遵法成本。美國加州州長紐松(Gavin Newsom)簽署的CCPA修正案「AB-713號法案」(Assembly Bill No. 713, an act to amend Sections 1798.130 and 1798.145 of the Civil Code )通過後,CCPA之適用範圍將限縮。若「同時符合」下列二者條件,則可免受CCPA規範: 受「加州醫療資訊保密法」(the California’s Confidentiality of Medical Information Act, CMIA)所規範的的醫療資訊及個人健康資訊之衍生資訊,或受「美國聯邦受試者保護通則」(Federal Common Rule for human research subjects) 所規範的可識別之個人資訊。 根據「健康保險可攜性及責任法」(Health Insurance Portability and Accountability Act, HIPPA)之標準,已去識別化的資訊。 換言之,已經依HIPAA標準去識別化之第一點資訊,即可豁免CCPA針對個人資料保護之相關規定。此將減輕本身不受 HIPAA 規範,但因進行研究或業務目的需接收 HIPPA 去識別化資訊企業之合規負擔。 「AB-713號法案」對於已去識別化資訊之利用或販售行為,增設了契約須載明下列規範架構之條款內容: 如有利用或販售去識別化資訊涉及病患資料者,須在契約中予以聲明。 禁止買受人或被授權利用人以任何方式重新識別去識別化資訊。 除法律另有規定,或第三方受到相同或更嚴格限制之個資保護約束,買受人或被授權利用人不得將去識別化資訊再行揭露予第三方。 「AB-713號法案」亦要求進行CCPA所涵蓋販售或揭露去識別化病患資訊的企業,其隱私政策聲明應納入以下內容: 將出售或揭露去識別化病患之資訊; 採用HIPAA所允許如專家法(Expert determination)或安全港法(Safe harbor)等之何種方式,進行病患資訊之去識別化。 整體來說,「AB-713號法案」讓CCPA的規範稍加鬆綁,明確排除CCPA對特定去識別化資訊之適用,並擴張對研究行為之豁免範圍,在處理上有更多彈性,惟同時也要求企業須充分揭露其個人資料處理原則。
蘋果,谷歌結束智慧型手機專利訴訟蘋果(Apple)與谷歌(Google)旗下的摩托羅拉移動公司(Motorola Mobility)已明確決定就所有有關智慧型手機技術的專利訴訟達成和解。 兩家公司於5月16日周五共同聲明,此次和解並未包含專利交互授權的協議。聲明中指出「蘋果與谷歌亦同意在某些專利改良的領域可進行合作」 蘋果和使用谷歌的Android軟體技術製造手機的公司,已經在全球提出許多類似的訴訟,以保護自己的技術。蘋果認為Android手機所使用谷歌軟體技術,複製於iPhone手機。 依據兩家公司提出的申請,已通知華盛頓聯邦上訴法院駁回訴訟案件,但這協議似乎看起來不適用於蘋果對三星電子公司所提出的訴訟,因未接獲駁回案件的通知。 蘋果和摩托羅拉移動的爭議開始於2010年,摩托羅拉指控蘋果侵犯多項專利,其中包括一個主要如何使手機於3G網路上運行,而蘋果表示,摩托羅拉侵犯其專利的智慧手機的某些功能。 這些案件被合併由芝加哥聯邦法院,然而,審理法官Richard Posner在2012年審判前夕即駁回案件,認為無任何一方可提供足夠的證據各自的主張。上個月,上訴法院讓iPhone製造商另一次機會,贏得一個對抗競爭對手的銷售禁令。 谷歌於2012年以125億美元收購摩托羅拉移動,今年將摩托羅拉移動出售給聯想,仍保留大多數的專利。
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。