本文為「經濟部產業技術司科技專案成果」
2015年7月16日歐洲法院(European Court of Justice)作對華為技術有限公司(以下簡稱華為公司)訴中興通訊股份有限公司(以下簡稱中興公司)侵權案作出判決,在判決中說明了向標準制定組織承諾以公平、合理及非歧視的原則(Fair, Reasonable, Non-discriminatory,以下統稱FRAND原則)對第三人授權之標準必要專利權人,在何情況下應依據《歐洲聯盟運作公約(Treaty on the Functioning of the European Union,以下簡稱TFEU)》第102條禁止濫用優勢地位的歐盟法一般規定,不得向法院聲請對被控侵害標準必要專利之人發出禁制令(injunction)。 歐洲法院認為,當標準必要專利權人承諾依據FRAND原則授權時,其已創造第三方對標準必要專利權人將以授權獲利,而非透過行使其排他權利而獲利之合理期待。因此標準必要專利權人必須以合理方法(包括通知被控侵權人侵害事實及表達願依FRAND原則與其達成授權契約之意願)與被控侵權方尋求達成授權契約,否則則構成優勢地位濫用。 至於被控侵權方雖無義務接受標準必要專利權人的要約以作為免除禁制令的條件,但仍應給予真誠並依據商業慣例的回應,包括(1)不拖延回覆;(2)即時提出新的書面要約;(3)被控侵權人正在使用標準必要專利且無法達成授權契約時,必須就其過去使用該專利之數量等依據商業慣例提供適當擔保;(4)雙方不拖延地接受由第三方來認定授權金額;(5)在進行授權協商時,被控侵權人不能挑戰標準必要專利的有效性、必要性或保留其後續相關權利。
微軟將針對美國政府是否對其在都柏林之主機具有管轄權提出上訴在2014年4月時,美國裁決法官James Francis就聯邦檢察官的申請,依據1986年的「電子通訊隱私法」(Electronic Communications Privacy Act, “ECPA”)第2703條第a項之規定,針對微軟客戶的e-mail對微軟公司發出了搜索令。然而,該搜索令所要求的e-mail資料儲存在微軟位於愛爾蘭都柏林的資料中心,因此微軟以美國政府對於愛爾蘭並無司法管轄權為由,拒絕配合執行該搜索令,並且對發出搜索令的法官提出異議。但是Francis法官認為這並不是「域外搜索令」(extraterritorial search warrants),並指出在網路互聯的世界中,重點是對資料的控制,而不是「電子財產」的所在位置,於是拒絕了微軟的異議。 於2014年7月,微軟向紐約曼哈頓地方法院再度針對該搜索令提出異議,主張如果美國法院依據「電子通訊隱私法」要求資訊服務提供者提供位於愛爾蘭主機的客戶電子郵件資料,應透過美國與愛爾蘭政府的「多邊司法互助協定(Mutual Legal Assistance Treaty,“MLTA”)」來進行。但地方法院做出以下的裁決:1.在網路世界,電子財產之地理位置不是絕對的;2. 「電子通訊隱私法」第2703條a項所稱之搜索令並不是傳統上的搜索令,而是「搜索令」與「傳票」性質混合的命令,功能是為了讓網路服務業者(Internet Service Provider, “ISP”)提供所擁有的資料給法院;3.國會應無意透過繁瑣的「司法互助協定」來取得位於海外的電子證據;據此,地方法院維持Francis裁決法官的裁決,並且判定微軟藐視法庭。 微軟隨後在2014年12月,以地方法院使用了錯誤的法律理由、沒有根據的推斷立法目的、疏漏重要判決先例的援引、逾越國會立法的優先權並且誤解了「網路流通」的概念等理由,向美國第二巡迴法院提出上訴。 目前蘋果、AT&T、思科、Verizon以及其他科技公司都支持微軟的上訴,認為如果認可美國政府對於本國公司在境外所設置的資訊主機有司法管轄權,將會嚴重衝擊美國以外國家的資料保護法。此案目前仍在法院審理中。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。