歐盟議會否決法國所提出切斷網路連接的修正條款

  法國政府基於保護電影、音樂等產業,在2009年3月提出將採取「三振法案」(Three-strikes law),對於不法使用網路下載音樂和檔案者,祭出明確的管制。第一階段違法者將會收到電子郵件警告,第二階段會收到書面之警告,第三階段將切斷該網路連接最長1年。

 

  但這個提議在2009年4月遭到法國議會否決,有議員表示這項規定是「危險、無用、無效率且對民眾有相當大之危險。」消費者團體則表示,「無辜的民眾將會受到處罰,而駭客等真正的犯罪者則可以利用入侵他人之帳號規避法規,而且,該架構顯然缺乏配套的監督機制。」

 

  無獨有偶的是,歐洲議會(European Parliament)也在同年11月針對歐盟電信信改革(EU Telecoms Reform)之討論,駁回該議案。議會認為,對人民通過網路使用服務和應用而進行的網際網路連接行為,在採取的措施時,應該尊重基本的人權和自由。這些限制權利的手段必須符合民主社會的法規,必須有效、公平和公正,比如通過法院進行審理等。而法國所提之切斷網路連接的三振法案與此原則不符。

相關連結
※ 歐盟議會否決法國所提出切斷網路連接的修正條款, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3181&no=55&tp=1 (最後瀏覽日:2026/01/13)
引註此篇文章
你可能還會想看
德國機器人和人工智慧研究

  人工智慧及機器人分為以下4種類型:首先是工廠裡的作業機器人,可自主性重複執行相同任務,例如拾取、放置、運輸物品,它們在侷限的環境中執行具體事務,而且通常是在周圍無人的圍籬區內作業,然而目前趨勢已有越來越多機器人可安全執行人機協作的任務。第二種係用在傳統製造外的專業機器人,例如:擠奶機器人、醫院手術機器人。第三種是生活中常見的消費產品機器人,常用於私人目的,例如:吸塵器機器人、割草機器人。最後是人工智慧軟體,此軟體可應用於醫療診斷輔助系統、語音助理系統中,目前越來越多人工智慧軟體結合復雜的感測器和聯網裝置,可執行較複雜之任務,例如:自動駕駛車。   德國人工智慧研究中心(Deutsche Forschungszentrum für Künstliche Intelligenz,DFKI)為非營利性公私合作夥伴(PPP)之研究機構,與歐盟,聯邦教育及研究部(BMBF)、德國聯邦經濟及能源部(BMWi),各邦和德國研究基金會(DFG)等共同致力於人工智慧之研究發展,轄下之機器人創新中心(Robotics Innovation Center,RIC)亦投入水下、太空、搜救、物流、製造業等各領域機器人之研究,未來將著重於研究成果的實際運用,以提升各領域之生產力。2016年6月,各界專家於德國聯邦議院的數位議程委員會中,呼籲立法者應注意機器人技術對經濟,勞動和社會的影響,包括技術及產品的安全標準、機器人應用之法律歸責問題、智慧財產權的歸屬與侵權問題,隱私權問題、及是否對機器人課稅等,進行相關修法監管準備。   解決台灣人口結構老化、勞動力短缺與產業競爭力等問題已是當務之急,政府為促進台灣產業轉型,欲透過智慧機械創新與物聯網技術,促使產業朝智慧化生產目標邁進。未來除需持續精進技術研發與導入產業業升級轉型外,應將人工智慧納入政策方針,並持續完備法制環境建構及提升軟實力,以確保我國技術發展得以跟上世界潮流。

2016年生物支付技術將可能取代傳統支付型態

  根據美國公共電視台在2016年1月6日的新聞,指出生物支付將可能成為新興支付工具。生物支付之定義為利用生物辨識(biometric)技術驗證個人生物特徵,諸如:指紋、虹膜等進行支付。採用生物支付技術,未來將無須使用信用卡或行動裝置,僅需要個人生物特徵之辨識即可完成交易。此轉變將使未來交易更加快速、便利,但同時,生物支付的安全性卻也不無疑義。   即便生物辨識屬於高層級的資訊安全保護機制,但水能載舟,亦能覆舟。生物辨識利用生物不可變之特性進行身分識別,涉及高度個人隱私,為妥善保護個人資訊安全,需訂立生物辨識相關規範加以管制,否則將衍生許多法律問題。   例如:在2015年6月,美國線上出版商Shutterfly公司被控訴違法蒐集個人資料。原告稱其並非Shutterfly公司之註冊使用者,也從未同意其生物辨識資訊被該公司蒐集,但其面紋(Face print)卻被上傳至該公司網站,並標註姓名,儲存在自動針對相片標記臉部辨識系統之資料庫。 依據BIPA針對生物辨識定義及蒐集規範: 1.第10條: 生物辨識之態樣,包含視網膜、虹膜掃描、指紋或是手部、臉部外觀之掃描,但不包括簽名、照片、用於科學檢測之人體樣本、頭髮顏色等。 2.第15條(a): 規定公司蒐集個人生物特徵資訊應有相關規範供公眾查閱,並應提供生物辨識資訊之保管及銷毀日期及相關資訊。 3.第15條(b)(1): 蒐集生物辨識資訊應告知當事人。   Shutterfly公司提出要求法院不受理之抗辯,主張BIPA規定之臉部外觀,其文意解釋應為物理上個人親自接受掃描所得之資訊,並非原告所主張以照片辨識之臉部外觀,但法院認為Shutterfly之主張並不合理,因此同意受理此案。   觀察該案可發現,儘管生物辨識提高資訊安全之保護,但相關法規範解釋仍待實務完備。另一方面,生物特徵資訊極易被他人蒐集,因此,如何建置蒐集個人辨識資訊及完善相關措施,也是推行生物支付措施所需突破的關口。

歐盟執行委員會與蘋果和解 承諾開放第三方行動錢包

歐盟執行委員會(European Commission,下稱執委會)於2024年7月11日宣布與蘋果公司和解並接受蘋果公司提出的承諾,未來十年在歐洲經濟區(European Economic Area, EEA)內允許第三方行動錢包提供者存取iOS裝置的NFC(Near-Field-Communication)功能,並設有監督受託人(monitoring trustee)進行監督。 自2020年6月執委會對蘋果公司啟動反壟斷調查,並於2022年5月執委會提出聲明認為蘋果公司在iOS裝置行動錢包市場具有主導地位,對競爭對手產生排他性影響,涉及違反《歐盟運作條約》(Treaty on the Functioning of the European Union, TFEU)第102條禁止濫用市場地位規定。蘋果公司為解決涉及違法問題,於2024年1月承諾提供第三方行動錢包提供者和支付服務提供者應用程式介面(Application Programming Interfaces, APIs)存取iOS裝置的NFC功能,並經由執委會1個月的第三方意見諮詢後,蘋果公司根據該意見修改部分內容,並提出以下承諾: ● 提供終端設備支付功能。 ● 取消存取NFC功能的資格條件。 ● 允許第三方行動錢包提供者為存取NFC功能預先設置支付應用程式。 ● 持續更新架構以符合行業標準。 ● 允許開發者提示使用者設定預設支付應用程式並導向設定頁面。 ● 縮短爭端解決期程。 ● 由監督受託人提供獨立性及程序保證。 執委會認為蘋果公司提出的承諾能有效解決蘋果公司限制第三方行動錢包提供者在iOS裝置提供NFC支付功能的競爭,執委會與蘋果公司和解並承認該承諾對蘋果公司產生法律約束力,監督受託人將定期向執委會報告,執委會與蘋果公司和解並結束為期4年的調查,但蘋果公司仍須承擔《數位市場法》(Digital Markets Act)等其他法規之義務。 相較於Android系統開放NFC功能提供行動錢包存取,iOS系統對行動錢包存取NFC功能有所限制,澳洲競爭與消費者委員會(Australian Competition and Consumer Commission)及美國司法部對於蘋果公司壟斷iOS裝置的行動錢包市場也展開調查或訴訟,蘋果公司面臨行動錢包市場競爭的挑戰,在歐洲經濟區內可能掀起行動錢包市場競爭的蓬勃發展,是否帶動在其他國家或地區的法制政策改變,可持續觀察各國行動錢包市場動態。

全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任

全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。

TOP