自2001年以來,美國長期無法解決2305-2360MHz頻段上,相鄰之衛星數位音訊廣播服務(Satellite Digital Audio Radio Service, SDARS)業者與無線通訊服務(Wireless Communications Service,WCS)業者雙方相互干擾之疑慮。此一爭議在2012年10月17日美國聯邦通訊委員會(FCC)發布FCC 12-130再審查命令(Order on Reconsideration FCC 12-130,下稱12-130命令)後獲得解決。
使用頻段位於2305-2320MHz與2345-2360MHz之無線通訊服務(WCS)與位於2320-2345MHz頻段的衛星數位音訊廣播服務(SDARS)由於個別之訊號傳輸技術差異大,並且長久以來無法在干擾處理的議題上達成共識,而抑制了無線通訊服務(WCS)於該頻譜上之發展。為實現WCS業者得於該頻段發展行動寬頻業務之承諾,並確保美國大眾能繼續享有高品質的衛星廣播服務,FCC本次針對2010年所頒布之命令(FCC10-82)進行再次修訂與檢討 ,以確立位於2.3GHz頻帶WCS所屬之頻段得發展新興寬頻服務,並促進SDARS地面中繼起器(terrestrial repeaters)之佈署及運作更加彈性化。
12-130命令之頒布,可視為WCS頻帶發展的重要里程碑。該命令除了確保相鄰頻帶之衛星廣播服務(satellite radio)、航空行動遙測技術(aeronautical mobile telemetry)以及位於美國加州所佈署之深空網路(deep space network)地面站其訊號不受干擾以外,FCC更透過制訂各項參數與管理規則,一方面降低WCS營運時對於SDARS接收者可能產生的潛在干擾,另一方面則幫助位於2.3GHz的WCS業者有能力提供固定或行動寬頻服務,以促進WCS業者與SDARS業者和諧共存。
對於FCC最後決定採用修改管制規範方式釋出該頻段以發展行動寬頻服務之舉,FCC主席Genachowski表示,除有助於鞏固美國身為全球發展LTE技術領導者之地位外,更認為命令中的管制障礙排除模式可幫助未來其他頻段的清理或移頻,增加頻譜使用彈性,並有助於達成國家寬頻計畫(National Broadband Plan’s)所設定之「2015年釋出300MHz總頻寬」、「2020年釋出500MHz總頻寬」目標。
繼美國最高法院於Microsoft Corp. v. AT&T Corp. 做出與專利法治外法權有關的判決後,美國聯邦巡迴上訴法院於2009年8月19日再次做出限縮解釋專利法第271條(f)項於美國境外的效力。 美國專利法第271條(f)項規定未經許可提供或使人提供專利產品之元件,將之由美國供應(“supply”)至美國境外完成組合,亦視為侵害該專利產品之專利權。此項規定為美國國會為防範企業藉由在美國境內製造非專利保護之零組件後再運送之海外進行組合以規避專利侵權責任而制定。之後,在實物案例中,關於第271條(f)項之解釋與適用範圍產生諸多爭議。美國最高法院於其在2007年Microsoft Corp. v. AT&T Corp. 中強調不應擴張解釋第271條(f)項之文字。 於Cardiac Pacemakers Inv. V. St. Jude Medical Inc. 一案中,原告Cardiac Pacemakers控告被告St. Jude Medical所販賣的植入式心臟整流去顫器 (implantable cardioverter defibrillator)之使用會侵犯原告所擁有的一個利用植入式心臟刺激器治療心律不整的方法專利 (a method of heart stimulation using an implantable heart stimulator)。本案的爭點在於被告銷售可實施原告美國專利方法的產品或裝置讓該專利方法於美國境外被實施的行為是否構成第271條(f)項之侵害。美國聯邦巡迴上訴法院推翻其於2005年之判決(Union Carbide Chemicals Plastics Technology Corp. V. Shell Oil Co.),判定專利法第271條(f)項不適用於方法專利。亦即,被告銷售可實施原告美國專利方法的產品至海外的行為不構成第271條(f)項所規定之侵權行為。 此判決對原告Cardiac Pacemakers之衝擊可能較小,因其專利範圍除方法請求項外,亦包含物品請求項,原告還可藉由其物品請求項獲得侵權損害賠償。但此案可能對僅能以方法申請專利的產業如生技藥業(某些診斷及檢驗僅能以方法申請專利)及軟體業造成較大的影響。
歐盟隱私工作小組支持擴大通知義務之業者範圍歐盟隱私權工作小組(working party)日前公布其對「隱私與電子通訊指令」(Directive on Privacy and Electronic Communications, 2002/58/EC)之修正意見,藉此重申支持個人資料外洩通知責任立法之立場,並建議擴大適用通知責任之業者範圍至涉及線上交易之電子商務之服務提供者。此項建議隨即遭到歐盟理事會及委員會之反對,認為通知責任應僅限於電信公司,而不應擴及其他電子商務服務提供者。 歐盟隱私權工作小組於2009年2月初提出的報告指出,個人資料外洩通知責任法制(Data Breach Notification Law)之建立對於資訊社會服務(Information Society Service)之發展是必要的,其有助於個人資料保護監督機構(Data Protection Authorities)執行其職務,以確認受規範之服務提供者是否採取適當的安全措施。再者,亦可間接提高民眾對於資訊社會相關服務使用之信心,保護其免於身份竊盜(identity theft)、經濟損失以及身心上之損害。 然而,歐盟理事會及歐洲議會則反對該項修正建議,其一方面認為不應擴張資料外洩通知責任制度適用之業者,另一方面則認為對於是否透過法制規範課予業者通知之義務,應由各國立法者決定是否立法,甚或由業者依資料外洩情形嚴重與否,來判斷是否通知其各國個人資料保護相關組織及客戶。此外,參考外國實施之成效,美國雖有多數州別採用資料外洩通知責任制度,但並非所有的隱私權團體皆肯認該項制度;英國資訊委員會對於該制度之成效則仍存質疑,因從過去為數眾多的個人資料外洩事件看來,其效果已逐漸無法彰顯。 雖然歐盟個人資料保護官(European Data Protection Supervisor)與歐盟隱私權工作小組之看法一致,但其與歐洲議會與歐盟理事會仍存有歧見,對於個人資料外洩通知責任制度之建立,似乎仍有待各方相互協商尋求共識,方能決定是否納入歐盟隱私及電子通訊指令之規範。
Google挑戰法國最高行政法院對被遺忘權之看法2016年3月法國個人資料保護主管機關「國家資訊自由委員會」(Commission Nationale de l'Informatique et des Libertés, CNIL)要求Google等搜尋引擎公司,刪除網路搜尋所出現之歐洲公民姓名。此舉參考2014年歐洲法院(European Court of Justice)對於Mario Costeja González一案(C 131/12)所作裁決,Google公司和Google西班牙公司須遵守西班牙資料保護局(Agencia Española de Protección de Datos, AEPD)要求,移除出現原告姓名之搜尋結果。Google表示不服,並上訴法國最高行政法院(Conseil d'État)。 於本案中Google提出兩點主張:第一,CNIL對於被遺忘權(right to be forgotten)適用範圍過大,聲稱所搜尋到之姓名等資訊,屬於事實或來自新聞報導和政府網站之合法公開網站資訊,認為CNIL將隔絕原本在法國可為其他人所知之合法資訊;第二,Google主張向來遵守各國個人資料保護政策,將遵照CNIL要求,但僅限刪除在法國網域內之歐洲公民姓名,無法及於全球網域,除非法國政策已為全歐盟或全球所適用,不然法國個人資料保護審查制度不能延伸至其他國家。 對於網路公民權利推廣不遺餘力之「電子前線基金會」(Electronic Frontier Foundation, EFF)認為CNIL對法國公民資料保護之特別要求,將對Google造成損害。
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。