歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。
歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。
本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式:
一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。
二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。
三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。
AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
日前,英國英格蘭與威爾斯上訴法院在沒有判決先例或法律明文下,於2016年07月06日作出法院得對網路服務業者發出封鎖商標侵權網站強制令的判決,該判決維持本案高等法院的見解。 在卡蒂亞國際集團與英國天空廣播集團與開放權利團體案中,法院要求前開網路服務提供業者,對特定就侵害商標權人商品進行廣告與販售的網站進行封鎖。 本案高等法院認為,對於1988年著作權、設計和專利法第97A條而言,儘管缺乏實體法依據,但藉由本條解釋而探求網路服務業者對於商標權人的網路侵權保護是必要的。 本案業者上訴指出,如法院依據第97A條發佈封鎖網站的強制令,必須先確定:網路服務業者是服務提供者、目標網站的用戶或是業者侵犯著作權、目標網站的用戶或是業者利用網路服務業者提供的服務侵犯著作權以及網路服務業者明知。然而,業者指出,他們是完全出於善意、中立且未違法令,法院不能在缺乏判決先例與證據的情況下,逕自做出封鎖網站的決定,但上訴法院認為比較利益衡量後,強制網路服務業者封鎖特定侵權網站是合理適當的。 先不論強制封鎖網站的命令是否侵害言論自由,甚至有連合法內容也一併封鎖的風險。若該見解成為判決標準,預料將加重英國網路服務業者監管責任與營運成本,相關影響已在智財相關社群中被熱烈討論。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國聯邦準備理事會、FDIC與OCC發布聯合聲明,提醒關於加密資產流動性風險有鑑於加密資產(crypto-asset)投資交易潛在風險與市場波動性,美國聯邦準備理事會(Federal Reserve Board)、聯邦存款保險公司(Federal Deposit Insurance Corporation, FDIC)與通貨監理局(Office of the Comptroller of the Currency, OCC)於2023年2月23日發布聯合聲明,提出加密資產增加銀行流動性風險情境,例如穩定幣因市場狀況之變動,導致銀行擠兌使大量存款流出,由於存款流入和流出的規模與時間的不可預測性,加密資產相關資金恐造成流動性風險提高,提醒銀行機構應用現有的風險管理原則審慎因應。 依據聲明內容,有效風險管理作法包括:(1)了解加密資產相關實體存款潛在行為的直接和間接驅動因素,以及這些存款易受不可預測波動影響的程度;(2)銀行機構應積極監控加密資產資金來源存在的流動性風險,並建立有效的風險管理控制措施;(3)應與加密資產存款相關的流動性風險納入應變計劃(contingency funding planning),例如流動性壓力測試;(4)評估加密資產相關實體存款之間關聯性。該聲明並強調銀行機構應建立風險管理機制及維持適當有效之內部控制制度,以因應加密資產高流動性風險,確保經濟金融穩健發展。
OECD將制訂加密資產申報綱要G20要求OECD(經合組織)儘速制訂加密資產申報綱要(Crypto-Asset Reporting Framework, CARF),以建立「加密資產資訊自動交換制度」,使一國稅務機關有權收集,並與他國稅務機關交換從事加密資產交易者的稅務資訊。故OECD於今(2022)年3月發布公開徵詢文件,並於5月23日召開公開諮詢會議,並期能於今年10月完成CARF之制訂。 蓋人手一機的時代,透過APP買賣虛擬通貨及NFT等加密資產已是滑指日常。因使用區塊鏈技術,去中心化的特性使得所有交易都不需要傳統金融機構的中介或干預,又因為區塊鏈是分散式帳本,因此每一筆交易進行紀錄的礦工幾乎都不同。換言之,加密資產的交易及紀錄都有秘密性,金融機構與國家機關難以查得,就算能查到交易紀錄,也無法查得買賣加密資產雙方的真實身份,因此衍生出投資加密資產如有獲利,如果沒有申報,反正國家也查不到,就不用繳稅的問題。 因此,首段所稱CARF,即為解決前段因區塊鏈技術所引起的稅務挑戰,惟這項全新的交換制度涉及了加密資產與跨國稅務等事務,有賴全球合作,茲事體大,雖然CARF與現在已經在全球實施的稅務資訊自動交換制度類似,但顯有不同。