美國電影協會(Motion Picture Association of America, MPAA)和美國唱片業協會(Recording Industry Association of America, RIAA)於2011年6月共同組成著作權資訊中心(Center for Copyright Information,簡稱CCI),並說服Verizon、AT&T、Time Warner、Comcast、Cablevision等美國5大網路服務提供者加入,簽訂備忘錄,表示合作建置「著作權警告系統(Copyright Alert System,簡稱CAS)」,又謂「Six Strike系統」,該網站可向有提供下載非法檔案服務之網站業者發出警告或給予處罰,預計於2013年正式運作。
所謂「Six Strikes」,係指網路服務提供者發現有盜版行為時,會發出不同程度的6次警告。至於Six Strikes系統運作方式,係由各網路服務提供者自行決定要採取可有效打擊網路盜版的方式。目前美國5大網路服務提供者中,除Comcast及Cablevision以外,其它3個網路服務提供者已公開Six Strikes警告措施內容。
基本上,第1、2次警告屬於「通知(notice)」,僅利用電子郵件或電話通知使用者已侵害著作權;第3、4次警告屬「承認(acknowledgement)」,即利用彈跳視窗(pop-up)告知使用者侵害著作權情形已有3次以上等訊息,並且使用者應點選該告知侵權訊息之彈跳視窗方可進入其欲瀏覽的網站,使用者若點選視窗則視為其承認本身侵權行為;第5、6次警告則屬「因應措施(mitigation)」,即其它3個網路服務提供者會讓使用者感受到上網速度變慢,或是直到使用者上完著作權教育課程前,不讓其進入常瀏覽的網站等措施,而使用者亦可對網路服務提供者採取的措施提出異議。
但仍有論者對此提出不同看法,諸如若使用者利用虛擬私人網路(VPN)或非BitTorrent之檔案共享形式,分享檔案,即可迴避Six Strikes系統,或有論者認為侵權與否應由法院判斷,而非由網路服提供者逕行判斷等質疑,此一系統後續發展有待進一步關注。
英國資訊專員辦公室(Information Commissioner's Office,下稱ICO)於2025年8月18日讉責南約克郡警方(South Yorkshire Police,下稱SYP)刪除超過9萬6千筆穿戴式攝影機影片(body-worn video,下稱BWV)證據,強調SYP未落實資料識別、第三方監督及備份機制等資料管理措施。 警方使用BWV作為記錄警方執法過程之取證方式,目的為提高透明度、公眾信賴及取得最佳證據等。由於BWV證據具備公正性及準確性,亦可減低對於受害者證據之依賴。當警員換班時,需要將BWV證據下載至指定地點,先傳送至「數位證據管理系統(Digital Evidence Management,下稱DEM系統,該系統由第三方業者管理)」後,再傳輸至「儲存網格(Storage Grid)資料庫」。倘若發生爭議,SYP將檢視「儲存網格資料庫」中的BWV證據。 2023年SYP發生遺失大量BWV證據之爭議事件,事實整理如下: 2023年5月升級DEM系統後,SYP改將資料儲存於本地硬碟。同年8月7日時,SYP發現在儲存網格資料庫中,具錯誤刪除96,174筆原始BWV證據之紀錄,經調查發現,在同年7月26日,第三方將本地資料傳輸到儲存網格時,曾發生大規模的資料刪除事件。 由於在進行備份時,未使用特定的檔案名稱或其他可識別的資料標記等方式標記資料,即使SYP內部已針對95,033筆BWV證據進行備份,仍無法比對確認「已被永久刪除的BWV證據」數量,且遺失之資料共涉及126起刑案,其中更有3案受影響,甚至有1起案件指出,若BWV證據存在,則相關案件的檢調程序應能夠有所進展。 ICO亦指出SYP雖與第三方簽署契約,卻未明定處理程序,且未監督第三方的遠端存取行為。SYP早在2019年,已發現備份機制存在問題,但當時未向高階管理人員報告相關問題的完整狀況,導致未採取補救措施。 綜上述,ICO提出SYP應確保所有紀錄應以清晰、可識別的方式進行標記;在允許第三方存取系統前,應完成風險評估及確認管控要求,並持續監督第三方等改善建議;以及應建立能夠有效還原任何遺失BWV證據的備份方案。 另外依英國皇家檢察署(Crown Prosecution Service)的統計顯示,因缺乏定罪的必要證據,包含缺乏數位證據,如受害者詢問或隨身攝影機影片遺失等各類原因,導致無法進行審判的皇家檢察署案件,整體呈現上升趨勢,從2020年的7484起案件,上升到2024年的8180起案件。 為系統性建立及強化數位證據管理機制,我國司法院、法務部、臺灣高等檢察署、內政部警政署及法務部調查局共同推動之「司法聯盟鏈共同驗證平台」,其以「b-JADE證明標章」檢視既有的數位證據監管制度,其他司法機關亦可參照「b-JADE證明標章」以確保採取有效之資料識別、第三方監督及備份控管作法,除了控管數位證據的相關業務流程、內外部人員等,亦應促使內部滾動式檢視問題及須定期向主管回報,以利調整規劃。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
德國聯邦最高法院(BGH)判決醫師評價平台「Jameda」須刪除受評醫師個人資料德國聯邦最高法院(Bundesgerichtshof, BGH)在2018年2月20日的判決(Urt. V. 20.02.2018 – Az. VI ZR 30/17)中認定,網路評價網站(Bewertungsportale)之業務雖未違反聯邦資料保護法(Bundesdatenschutzgesetz, BDSG)規定,但其評價立場必須維持中立。醫師評價平台「Jameda」(www.jameda.de)之商業行為違反此項原則,故須依原告要求,刪除其在該網站之所有個人資料。 本案中,原告為執業皮膚科醫師,且非醫師評價平台「Jameda」之付費會員。然「Jameda」不僅將該醫師執業簡介列入其網站,且同時在其個人簡介旁,列出與其執業地點相鄰,具競爭關係之其他同為皮膚科醫師之付費會員廣告。反之,付費會員不但可上傳個人照片,且在其執業簡介旁,不會出現與其診所相鄰之競爭者廣告。 聯邦最高法院依據聯邦資料保護法第35條第2項第2款第1號 (§35 Abs. 2 S. 2 Nr. 1 BDSG) 規定,並經衡量同法第29條第1項第1款第1號 (§29 Abs. 1 S. 1 Nr. 1 BDSG) 規定之效果後,同意原告對「Jameda」提出刪除網頁所列個資之請求。法院見解認為,「Jameda」的廣告策略使其失去資訊與意見傳遞者之中立角色,並以自身商業利益為優先,故其言論自由不得優於原告之資訊自主權(informationelle Selbstbestimmung)。 該判決強制網路評價平台嚴格審查本身之廣告供應商務,並與聯邦憲法法院(Bundesverfassungsgericht)見解一致,用於商業目的之言論表達僅有低於一般言論自由的重要性。儘管如此,評價平台仍被視為介於患者間不可或缺的中介者(unverzichtbare Mittelperson),可使互不相識的病患,藉此獲得經驗交流的機會。 儘管本案判決同意原告刪除評價網站中所儲存個人資料之請求,但見解中,仍肯定評價網站具有公開醫療服務資訊之功能,符合公眾利益,受評價醫師被公開之個人簡介亦僅涉及與社會大眾相關之範圍。針對網站評分及評論功能之濫用,醫師仍可對各種不當行為分別採取法律途徑保障自身權益。由此可知,德國聯邦最高法院仍認定,評價網站之評分與評論機制,仍符合聯邦資料保護法規範之宗旨,惟若該評價網站以評價機制作為商業行銷手段,則不得主張其言論及意見表達自由高於受評價者之資訊自主權。
美國證券交易委員會發布指引要求公司進一步揭露加密資產之潛在影響美國證券交易委員會(United States Securities and Exchange Commission,下稱SEC)於2022年12月8日發布「致公司有關近期加密資產市場發展之樣本函(Sample Letter to Companies Regarding Recent Developments in Crypto Asset Markets)」指引文件(下稱本指引),指導公司應針對自身業務涉及近期加密資產市場動盪事件(如虛擬貨幣交易所破產等),進行直接或間接影響之風險揭露,以符合聯邦證券法規之資訊揭露(如風險及風險暴露等)義務。SEC轄下之企業金融處(Division of Corporation Finance,以下簡稱金融處)認為公司應向投資者提供具體且量身訂製之市場動盪事件報告、揭露公司在動盪事件中之狀況以及可能對投資者造成之影響。爰此,本負有常態報告義務的公司應據此考量現有的揭露內容是否須進行更新。 金融處說明,為加強並監督公司對資訊揭露要求之遵守狀況,爰依據1933年證券法(Securities Act of 1933)及1934年證券交易法(Securities Exchange Act of 1934)內涵,要求公司亦須針對應作出聲明的實際狀況,進一步揭露相關重大訊息,且不得進行誤導。本指引所要求公司明確揭露加密資產市場發展的重大影響,包括公司對競爭對手及其他市場參與者之風險暴露;與公司流動資金及獲取融資能力相關的風險;及與加密資產市場法律程序、調查或監管影響相關的風險等。 值得注意的是,本指引並未列出公司應考量問題的詳細清單,個別公司應視自身情況評估已存在之風險,或是否可能受到潛在風險事項的影響。由於公司所揭露之文件事前通常不會經過金融處審查,因此金融處也敦促各公司應自主依循本指引進行相關文件準備。
歐洲議會通過《人工智慧法案》朝向全球首部人工智慧監管標準邁進下一步歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)