美國《雲端法》(CLOUD Act),全名為《釐清境外合法利用資料法》(Clarifying Lawful Overseas Use of Data Act),於2018年3月23日頒布生效,該法更新《1986年儲存通訊紀錄法》(Stored Communications Act of 1986),並釐清海外資料合法取得:無論資料儲存地在美國境內或境外,美國執法機構均可合法請求通訊紀錄的保存或揭露。
《雲端法》有兩大重點:首先,《雲端法》授權美國與其他值得信賴的國家進行雙邊協議,以取得重大犯罪之電子證據。其他國家必須擁有相應的完善法規、隱私、公民權利之保護,方具備與美國簽署雙邊協議的資格。透過雙邊協議,締約雙方可憑對方國家的搜索票等法律文件,直接對通訊服務提供者強制執行。其二,《雲端法》闡明美國與相當多國家長久以來的原則─假設一間公司在特定國家的司法管轄權範圍內,則其所產生的資料應接受該國的管制,資料儲存地為何,在所不問。
《雲端法》的立法背景可以追溯到2013年美國聯邦調查局(Federal Bureau of Investigation, FBI)進行緝毒受阻。當時,涉案美國公民的電子郵件存於微軟境外伺服器,FBI持有搜索令,但是微軟以《1986年儲存通訊紀錄法》管轄範圍不及於美國境外為由,拒絕提供系爭電子郵件。2016年聯邦第二巡迴上訴法院於Microsoft Corp. v. United States判決微軟勝訴─美國政府不得強制取得境外伺服器資料。然而,此訴訟存在相當多爭議,復有2018年《雲端法》之制定,微軟亦對《雲端法》表示支持。《雲端法》通過時,最高法院尚未做出判決;最終,最高法院於2018年4月17日撤銷Microsoft Corp. v. United States。2019年4月10日,美國司法部發布雲端法白皮書,匯集刑事和國家安全專業的律師之意見,並回答常見的問題,希望提升全球的公共安全、隱私及法治。
本文為「經濟部產業技術司科技專案成果」
人工智慧目前正快速發展,不論是在醫療、農業耕作、製造生產或是氣候變遷等領域上,均帶來了許多改變,然而在人工智慧應用之同時,其也存在許多潛在風險如決策不透明、歧視或其他倫理與人權議題。 歐盟為求在全球競爭激烈的背景下,維護其於人工智慧相關領域的領先地位,並確保人工智慧技術於改善歐洲人民生活的同時,亦能尊重(respecting)人民權利,乃於今年(2020年)2月發布「人工智慧白皮書」(White Paper on Artificial Intelligence),將採投資及監管併用之方式,促進人工智慧應用與解決其相關風險,其對於未來促進人工智慧的應用(promoting the uptake of AI)與相關風險解決,計畫朝向建立卓越生態系統(An Ecosystem of Excellence)及信任生態系統(An Ecosystem of Trust)兩方面進行。 在建立信任生態系統中,歐盟提到因為人工智慧具有變革性的潛力,所以就信任的建立乃至關重要,未來歐洲人工智慧的監管框架除了須確保遵守歐盟法規外(包括基本權利保護與消費者權益維護之規範),對於高風險性之人工智慧應用,其將強制要求需於銷售前進行合格評定(mandatory pre-marketing conformity assessment requirement)。而有關高風險性之定義,歐盟於該白皮書指出須符合以下兩個要件: 考量人工智慧應用之一般活動特徵,其預計會有重大風險的發生,例如在醫療保健、運輸、能源和可能屬於高風險的公共領域;以及 在預期用途或應用上都可能對個人(individual)或企業(company)帶來重大的風險,特別是在安全性(safety)、消費者權益(consumer rights)與基本權利(fundamental rights)上。 歐盟委員會目前針對於以上白皮書之內容與附隨報告,將向公眾徵詢意見至今年5月19日。
從Google提起的「FITBEING」商標異議案談JPO對於近似與著名商標的判斷日本特許廳(Japan Patent Office,後稱JPO)於2024年6月駁回Google公司對來自中國大陸的深▲せん▼小▲ちぇ▼科技有限公司(後稱中國大陸公司)有關「FITBEING」文字商標的註冊異議,認為中國大陸公司的「FITBEING」商標與Google公司的「FITBIT」商標在外觀、發音等方面存在顯著差異,因此不會對消費者造成混淆。 中國大陸公司於2023年1月在日本申請註冊「FITBEING」文字商標,指定於第14類的「鐘錶和計時儀器」等商品。Google公司於同年8月對該商標提出異議,主張「FITBEING」商標與其於2018年註冊的「FITBIT」文字商標,在拼寫及發音上相似,並有致相關消費者混淆誤認之可能,違反日本商標法第4條第1項第11款、第15款。此外,Google公司亦表示其「FITBIT」文字商標已為Google穿戴設備的「周知」標識,應具有排他性。 JPO指出,儘管「FITBEING」和「FITBIT」在拼寫上皆以「FITB」開頭,惟二者字尾的「ING」和「IT」無論在文字外觀、字母數量還是音節數量上的差異皆具顯著差異。此外,JPO亦評估「FITBIT」商標是否為「周知」商標。依日本商標法第4條第1項第10款規定,與消費者廣泛認識其為表示他人營業商品或服務之商標相同或近似,使用於同一或類似之商品或服務者,不得註冊商標。本案中,JPO指出Google公司所提供的證據,包括各國市場調查報告和廣告宣傳資料,卻未能提交足夠的日本市場調查資料,以證明「FITBIT」在日本已被相關消費者廣泛認識為Google穿戴式設備的「周知」標識。因此,基於雙方商標近似及周知程度,JPO駁回了Google公司的異議,認定兩商標無導致消費者混淆誤認之虞。 由本案可知,日本JPO對商標近似性的判斷標準與我國大致相同,均會考量商標的外觀、發音及涵義的差異。企業在設計創作商標時,應檢視商標的外觀、讀音以及涵義,避免欲註冊商標與現有商標近似,以避免無法取得註冊商標。此外,若欲主張「周知商標」,企業應確保提交充分的當地市場調查資料證明商標的知名程度,包括當地市場的消費者調查結果及銷售資料等,當面臨爭議時,用以主張商標的著名程度。 本案目前經JPO駁回Google公司的異議後,尚無進一步的訴願或訴訟公開資訊。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw/)
德國法院依據歐盟法院先決裁定發出第一例禁制令2015年11月3日德國杜塞道夫地方法院(以下稱德國法院)依據歐盟法院之《華為訴中興》案(Huawei v ZTE case, 16 July 2015, Case C- 170/13)的先決裁判發出第一例禁制令(Cases 4a O 144/14) (Nov. 3, 2015)。這個判決係義大利公司SISVEL公司認為青島海爾德國公司(以下稱海爾公司)侵害其有關GPRS及 UMTS無線網路專利組合之標準專利,並已經對海爾公司發出專利侵權通知,並發出授權要約,海爾公司則抗辯認為,SISVEL僅通知其母公司而未通知其分公司,且其授權要約不符合FRAND原則。 德國法院認為,SISVEL只要將足夠的專利侵權資訊及授權要約通知海爾母公司進而據以判斷是否與SISVEL展開授權協商即可,若要求專利權人亦須一一通知其分公司,則將流於形式。 其次,海爾公司雖因認為SISVEL要求之授權金過高,故拒絕SISVEL的授權要約並提出反向要約,但卻未在提出反向要約後之合理期間內依據歐盟法院在《華為訴中興》案先決裁判中之見解,對SISVEL提供保證金以擔保其授權協議尚未達成前對SISVEL專利之使用費用。故德國法院進一步對前述合理期間給予確切期間,即拒絕專利權人要約時起一個月內。 至於海爾公司主張SISVEL授權要約不符合FRAND原則之抗辯,德國法院認為因海爾公司未履行前述程序,故尚無須判斷SISVEL授權要約是否FRAND原則。故何種情形屬於符合FRAND原則,仍留由後續之實務見解加以補充。
澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).