本文為「經濟部產業技術司科技專案成果」
為了使歐洲的著作權法規更符合數位時代及單一市場所需,歐盟執委會(European Commission)於2016年9月所提出的「數位單一市場著作權指令」(The Directive on Copyright in the Digital Single Market)提案,於今年2月13日由歐洲議會(European Parliament)與歐盟理事會(Council of the EU)、歐盟執委會達成最終協議,歐洲議會與歐盟理事會並分別於3月26日及4月15日通過提案,歐盟理事會於4月17日簽署正式指令。新指令的重點內容包含: 文字與資料探勘(Text and data mining):第3條規定,研究組織為了科學研究而需對文字與資料探勘時,得例外對著作進行重製、擷取(extraction)。 強化著作人和表演者在數位環境中的地位:第14條規定,當著作人和表演者將著作權讓與或授權給出版商後,出版商必須定期向著作人和表演者告知這些著作的利用情形。另外,第15條規定,如果著作人和表演者覺得先前約定的報酬太低時,可以要求與出版商重新磋商更公平且適當的報酬。 賦予新聞內容重製權及向公眾傳播權:規定於第11條,使用新聞的內容(尤其網路新聞)時,須向新聞出版者取得重製權及向公眾傳播權的授權。另外,本次通過的正式指令,已無之前提案中具有爭議的「須得到新聞出版者同意才能使用新聞頁面超連結」條文內容,而無先前的超連結稅(Link Tax)爭議。 網路服務提供者義務:第13條規定,網路服務提供者如Instagram、YouTube等,有義務透過有效的機制,迅速刪除未經著作權人授權許可的內容,並防止這些未經授權的內容重新上架,以保護著作權人的利益。 不過,從歐盟執委會提案之後,第13條就引起了德國民眾的強烈反彈,從今年2月最後一個禮拜開始,德國各大城市展開了一連串名為「反對歐盟著作權改革法案」(gegen EU-Urheberrechtsreform)的抗議活動,包含線上連署及上街遊行,並已擴散至其他歐盟會員國。抗議訴求認為,使用所謂的「上傳過濾器」(Upload-Filter)會對網路的言論自由和多樣性產生巨大影響,由於在實際操作上,網路服務提供者只會依據著作權人所提供的著作授權清單,利用上傳過濾器自動過濾未得到授權的內容,因此經合法使用其他著作後所創作的新著作(例如文章內含有合法引用的內容),可能會成為被過濾、刪除的對象,因為上傳過濾器可能無法判別法定例外的合法使用。所以上傳過濾器被認為是有爭議的審查手段。 雖屢有爭議,但本次通過數位單一市場著作權指令,使歐盟的著作權法規更能適應當今數位世界,在音樂串流服務、影音點播平台、新聞彙整平台、以及各種社群平台已成為人們接觸著作和新聞的主要門戶時,加強網路使用者享有的自由和權利,創作者也將獲得更好的保護和報酬,以創造更繁榮的網路經濟。
為打擊境外逃漏稅,國際間持續擴大稅務資訊自動交換經濟合作暨發展組織(簡稱經合組織、Organization for Economic Cooperation and Development,下稱 OECD)於今年6月30日表示「2019年已有近百個國家/地區進行了稅務資訊自動交換,使其稅務機關可以獲得其居民在海外所持有的8,400萬個金融帳戶的數據,涵蓋的總資產達10兆歐元。相較於2018年(交換了4,700萬個金融帳戶資訊,約5兆歐元)有了顯著增長。」且「共同申報準則(亦稱共同申報及盡職審查準則、Common Reporting Standard, 下稱CRS)要求各國和各司法管轄區每年自動交換其金融機構提供的非居民的金融帳戶資訊,以減少境外逃漏稅的可能性。許多發展中國家已加盟其中,預計未來幾年會有更多國家加入。」 OECD秘書長Angel Gurría亦表示「由OECD創建並由全球論壇管理的這種多邊交換制度,此刻正為世界各國(含發展中國家)提供大量的新資訊,使各國稅務管理部門能夠確保境外帳戶被正確申報。尤在目前COVID-19危機中,各國正籌集急需的收入,一個無處藏富的世界,此點遂至關重要。 事實上,我國財政部於2017年11月16日所發布(民國109年4月28日修正)之「金融機構執行共同申報及盡職審查作業辦法」(簡稱CRS作業辦法),正是為了使我國接軌OECD發布及主導的CRS,藉由提高金融帳戶資訊透明度,據此與其他國家/地區進行金融帳戶資訊自動交換,以利我國與各國稅捐機關能正確且完整地掌握其境外納稅義務人的金融帳戶資訊。值得注意的是,我國第一波稅務資訊自動交換將於本年度9月份與我國32個稅捐協定國進行。
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。
歐洲議會通過《人工智慧法案》朝向全球首部人工智慧監管標準邁進下一步歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)