性隱私內容外流風波-從美國立法例論我國違反本人意願散布性隱私內容之入罪化

刊登期別
第28卷,第10期,2016年10月
 
隸屬計畫成果
經濟部技術處產業科技創新之法制建構計畫計畫成果
 

※ 性隱私內容外流風波-從美國立法例論我國違反本人意願散布性隱私內容之入罪化, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7766&no=86&tp=1 (最後瀏覽日:2024/09/27)
引註此篇文章
你可能還會想看
美國通過「開放、公開、電子化與必要的政府資料法」(Open, Public, Electronic, and Necessary Government Data Act)

  美國於2019年1月通過「開放、公開、電子化與必要的政府資料法」(Open, Public, Electronic, and Necessary Government Data Act),以下簡稱「政府資料公開法」,於2018年12月經參議院、眾議院通過後,2019年1月14日經美國總統川普簽署公布,為具拘束力的聯邦法。   聯邦政府往往擁有大量的寶貴資料,本法旨在要求聯邦政府機關在網路上開放發布其非敏感性資料時,應以機器可讀取的格式為之,使之更容易透過手機或其他電子設備使用(access)。意在擴大對政府資料的使用和管理,及促進私部門的創新,讓其它政府單位、各個組織或每個人都能使用這些資訊,使政府資訊透明化,同時兼顧隱私與國家安全議題。   政府資料公開法的內容係將歐巴馬總統於2013年5月9日簽署生效的「政府資訊應具有開放性和機器可讀性」(Making Open and Machine Readable the New Default for Government Information)之行政命令(Executive Order),正式立為聯邦法,促使數位政府之政策未來以開放為原則、不開放為例外。有論者認為本法原為行政指導性質之行政命令,改以法律位階為之,其原因係為了讓開放政府資料永續發展,以成文法框架拘束政府機關。   因此,該法內容在於修正美國法典第44編第35章「協調聯邦資訊政策」(Coordination of Federal Information Policy)之部分條文,主要重點整理如下: 第3502條中定義了資料資產(data asset)、開放政府資料資產(open Government data asset)、機器可讀性(machine- readable)和開放授權(open license)等。其中,「開放授權」之定義首次見於本法條文中,係指將資料資產開放供公眾近用時,針對該資料資產提供以下法律保障(legal guarantee),包含:允許公眾在毋須支付任何成本即可使用(at no cost to the public),而對於該資料資產的重製、發布、散布、傳播、引用,或改作皆不會受到限制。 聯邦政府向公眾釋出資料集時,除因智慧財產權之規定外,原則上不得加諸任何限制而影響到人民對於該資料的使用或再利用,並應以機器可讀格式(machine-readable)、開放格式(Open Format)、開放標準(Open Standard)的基礎下提供。 要求聯邦政府利用開放資料來強化其決策機制。 要求美國政府審計辦公室(Government Accountability Office, GAO)透過定期監督,來確保聯邦政府的問責制運作(accountability)。意即,GAO應向國會提交一份報告,該報告總結對機關的調查結果和趨勢,並給予其適當建議。(美國政府審計辦公室之角色為國會的監督審計機構,係立法部門的一部份,主要職責為協助、改善聯邦政府所訂的各項計畫及政策,向國會提供客觀、平衡的資訊。) 在第3520條、3520A條中,規範聯邦機構須編制首席資料專員(Chief Data Officers, CDO)及首席資料專員理事會(CDO Council),負責資料治理和執行其職責,並確保該機構遵守本法。

LG反將Sony一軍,企圖禁止PS3遊戲機在美國銷售

  去年12月底,Sony在美國國際貿易委員會(ITC)對LG提起控訴,指控LG的進口銷售的手機侵害其專利,請求該委員會禁止LG銷售被控侵害之手機。據稱LG也不甘示弱,因而在今年2月初,也向美國國際貿易委員會對Sony提出控訴,指控Sony的PlayStation 3遊戲機侵害其四項專利,請求該委員會禁止該遊戲機進口到美國。   根據LG所提出的訴狀,LG指控Sony的PlayStation 3遊戲機及其組件構成了直接、幫助和引誘侵權,而受侵害的四項專利分別為美國專利號7,701,835、7,577,080、7,619,961、7,756,398,都是有關藍光光碟(Blu-ray Disc)的播放技術。其中’080和’091專利是和複製藍光光碟上資料的技術有關;’835專利是和複製多資料流(multiple data streams)的操控技術有關;’398專利則和複製藍光光碟上的字幕流及更新其色調資訊的技術有關。據此,LG請求美國國際貿委員針對PlayStation 3的藍光播放器及其組件發動立即調查(immediate investigation),並發出禁止其進入美國,停止其他行銷、服務等行為之命令。   據報導指出,LG除了在美國國際貿易委員會提出控訴外,也在加州聯邦法院提起類似的訴訟,以請求金錢損害賠償。此二大公司間的專利訴訟發展,仍有待後續觀察。

歐洲議會通過《人工智慧法案》朝向全球首部人工智慧監管標準邁進下一步

歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)

美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

TOP