日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。
隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。
本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下:
1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。
2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。
日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。
本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國公民自由聯盟(American Civil Liberties Union, ACLU)在挑戰一網際網路審查法案—「兒童線上保護法(Child Online Protection Act, COPA)」的訴訟中獲得勝利。美國公民自由聯盟聲稱,1998年頒布的兒童線上保護法立意雖是為了防止兒童在網際網路上接觸到色情內容,但卻違反了美國憲法,也損害了數以百萬計成年網際網路使用者的言論自由。這個案件被視為對網路言論自由限度的重要檢測指標。 該法案中要求所有商業網站在允許使用者瀏覽那些有害未成年人的內容時,必須以信用卡號碼或其他方式來證明使用者的年紀。此外,在該法案中,那些製造有害未成年人內容的業者每日必須支付最高五萬美元的罰款,以及最多六個月的牢獄之災。美國公民自由聯盟認為,該法案有效杜絕色情網頁的比例甚至不到五成,而最高法院也表示,如可透過像過濾軟體或類似技術來達到防止未成年人接觸網路色情內容的目的,則法律限制的必要性則有待商榷。
加拿大政府就生成式人工智慧對著作權的影響進行公眾諮詢加拿大政府於2023年10月23日至12月4日針對「生成式人工智慧對著作權的影響」(consultation on the implications of generative artificial intelligence for copyright)進行公眾諮詢,以期了解生成式人工智慧對於加拿大著作權市場之變化,進而修訂《著作權法》(Copyright Act),本次諮詢文件中討論重點整理如下: 1.文字和資料探勘(Text and Data Mining, TDM):是否需要因應TDM修改加拿大原本的著作權法,包含著作權法中合理使用行為(29條)和暫時性重製行為(30.71條)等得不構成侵害之例外條款。學者、AI使用者以及AI技術團體大多持肯定見解,認為TDM行為中使用的著作時不需要權利人的著作權授權;然創意產業則多持否定見解,認為不應該為TDM創設例外,否則將會使得TDM所使用之作品原著作人無法主張權利以獲得授權金。 2.人工智慧生成作品之著作人身分及著作權歸屬:因利用生成式人工智慧所創作或輔助創作之文字、圖像和音樂有作者身分不明確之虞,因此加拿大政府希望可以對此加以澄清,並討論是否需要修改原本的著作權法案中相關規定。針對作者身分不明確之爭議,加拿大政府提出了三種可能的規範模式: (1)闡明著作權保護只適用於自然人創作的作品; (2)將人工智慧生成作品之作者歸屬於在創作作品時運用技能和判斷力的自然人,凡自然人可以在人工智慧技術輔助下創作的作品中貢獻足夠的技能和判斷力,即可被視為該作品的作者; (3)為人工智慧生成的作品創設一套新的權利。 3.人工智慧之侵權責任:人工智慧係透過大量的資料庫來生成一項作品,過程中可能出現侵害他人著作權之情形,而加拿大現行的著作權法框架下很難認定侵權行為之責任歸屬。加拿大現行的著作權法要求被侵權人(著作人)必須證明侵權人明知其重製行為侵犯他人著作權,且就該他人著作加以重製,但一般人難以瞭解人工智慧系統開發及訓練過程,因此難證明人工智慧系統研發與利用過程中的業者、工程師或其他相關人等是否有侵權行為。因此加拿大政府希望利害關係人就此議題提供更多意見,以協助將來修法、提高市場透明度。 生成式人工智慧雖然提供了便利的創作方式並帶來巨大經濟利益,卻也可能侵害他人著作權,因此平衡著作人之權利並兼顧經濟發展是加拿大政府及國際社會課正積極解決的議題。
澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國加密法案隨潮流再起緣起於2016年的加密法案(ENCRYPT Act),由於今年發生了臉書劍橋分析事件,以及歐盟GDPR的影響,本此法案再提的聲勢如浪潮襲來,不僅眾多議員附和,連企業(如:電子前線基金會Electronic Frontier Foundation,EFF)都予以支持。 加密法案的主要內容係以兩方面進行加密應用之保護, 各州州政府不得授權或要求產品或服務的製造商、開發商、銷售商或供應商,(A)設計或更改產品或服務中的安全功能,以供其進行監視或允許其進行實體搜索;(B)使其有能力解密或便於理解加密應用後的內容。 各州州政府不得禁止加密或類似安全功能的產品或服務,進行製造、銷售或租賃、提供銷售或租賃, 或向公眾提供覆蓋的產品或服務。此外,法案亦針對相關服務或產品的定義作了明確的說明。 本法案的主要提案者美國眾議員Ted Lieu指出,與加密或資料存取相關的問題,皆應在聯邦政府的層級進行討論,而就其本身電腦科學的專業,指出在各州間保有不同的加密應用執法標準,對資安、消費者、創新,以及執法本身都是不利的,引此本法案的推動旨在強化州際商業和經濟安全,以及網路安全問題,希望能對加密應用議題作全國性的討論,而不會損害使用者在過程中的安全性。