澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)

2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。

1. AI之定義

此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。

2.適用範圍

(1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。

(2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。

3.適用此政策之機構,須滿足下列2要件

(1)公布透明度聲明

各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。

(2)提交權責人員(accountable official,下稱AO)名單

各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。

所謂AO的職責範圍,主要分為:

I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。

II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。

III.擔任機構內協調AI的聯絡窗口

IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。

本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
※ 澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9240&no=55&tp=1 (最後瀏覽日:2026/05/15)
引註此篇文章
你可能還會想看
印度宣布將推出數位印度法案取代過時的資訊科技法

印度電子及資訊科技部(Ministry of Electronics and Information Technology, MeitY)於2023年3月展開了一次公開諮詢和協商,介紹了印度政府以創建印度數位技術生態系統為目的而建構的法律新框架,該框架以《數位印度法案》(Digital India Act)為核心,用來取代已有22年歷史的《資訊科技法》(Information Technology Act)。MeitY強調,現行資訊科技法的創立時代背景中不僅缺乏電子商務、社交媒體平台等現代網路服務,甚至印度還未進入數位化時代,因此有必要進行通盤的法規調整,以符合當代和未來的社會變遷和對法規範的需求。 目前《數位印度法案》的草案細節尚未公布,但是MeitY的介紹揭露印度在未來政策中所重視的幾個方向: 1.新的中介類別:重新定義數位經濟產業中的中介機構類別(如數位媒體、搜尋引擎、遊戲、人工智慧、OTT平台、電信服務業者……等),並依據未來的技術發展及產業轉型,適時的調整新的分類。 2.網路犯罪刑事化:將網路犯罪(如網路色情、詐騙、霸凌、身分冒用或未經授權散播個人資料)歸類為刑事犯罪;過去的資訊科技法僅對此類行為予以罰款。 3.問責機制:建立一個線上的民刑事檢舉、審判機構,並且提供方便使用者採取權利救濟措施的線上管道;另外印度政府也將涉及演算法透明度(algorithmic transparency)、人工智慧的定期風險評估(periodic risk assessments)等評估機制納入監管項目的考量中。以建立網路用戶的權利救濟措施及數位服務者提供服務過程中的責任釐清。 4.防壟斷機制:提出開放網路(Open Internet)的概念,認為網路服務應該是具有選擇性的、容許競爭的、多樣性的,在確保網路服務的多樣性和非歧視性及非壟斷性的前提下運作;印度政府希望能夠監理佔有主導地位的廣告平台和應用程式平台,防止市場力量過度集中造成壟斷。 5.年齡門檻:對於未成年人在社交平台、遊戲和賭博程式中的資訊蒐集、資訊安全和隱私保護加以規範,並且避免以鎖定未成年人為對象的資料蒐集機制。 除了以上五點外,MeitY在介紹《數位印度法案》時也表示為了應對現今數位化時代的發展,並且確保公民的權利保障延伸到數位世界中,將承認被遺忘權(right to be forgotten)、不受歧視權(right against discrimination)和數位繼承權(right to digital inheritance)等數位時代中發展出來的權利。另外,將「推動公私部門及個人於使用數位資訊時的相關規範」以及「保護個人資料的資料保護法案」等議題做為評量指標,以做為規劃印度國家數位治理時的重要考量。這些方針都揭示了印度正在試圖踏上更有規模、更安全且可信賴的數位生態系統建置之路,《數位印度法案》的相關發展細節值得再持續關注。

中國大陸法院認定AI創作可受著作權法保護

中國大陸法院認定AI創作可受著作權法保護 資訊工業策進會科技法律研究所 2023年12月05日 近期生成式AI的工具運用,無論是生成文字的ChatGPT、生成圖像的Midjourney及生成影片的Pictory,技術一日千里,蓬勃發展;其應用已逐漸進入一般人的生活領域網,而且產生AI產出的侵權爭議,滋生運用AI創作的生成內容是否可主張著作權之疑義。我國經濟部智慧財產局於今(112)年6月以經授智字第11252800520號令 函指出--「AI利用人如係單純下指令,並未投入精神創作,由生成式AI模型獨立自主運算而生成全新內容,該AI生成內容不受著作權法保護。」採取否定見解 。不過其前提係「單純下指令,並未投入精神創作」,適於日前中國大陸北京互聯網法院於11月27日以(2023)京0491號民初11279號民事判決 認為如可認定屬「非機械性智力成果」,運用AI生成的圖片仍可受著作權保護。 壹、事件摘要 本案起因於原告將其使用開放原始碼的Stable Diffusion以輸入提示詞的方式,生成「春風送來了溫柔」之少女人像圖,並發布於網路平台。原告於事後發現,被告將該圖原有的原告署名浮水印(平台所發予的用戶編號)截除,並使用於其在網路上發布的文章中使用該圖做為插圖。原告因此提起姓名表示權與網路傳輸權的侵權訴訟。 被告主張系爭圖片具體來源為網路取得,已無法識別來源與浮水印,並不能確定原告是否享有圖片之權利;而且其所發布的主要內容為原創詩文,並非系爭圖片,亦未做為商業用途,並無侵權故意。 原告於本案中提出生成過程的影片佐證資料,北京互聯網法院認定呈現下列具體生成(取捨、選擇、安排與設計)步驟: 一、選擇前述軟體程式提供的模型,初步決定畫面最終生成的可用素材,決定作品的整體風格、類型。 二、為展現一幅在黃昏的光線條件下具有攝影風格的美女特寫所需,輸入有關類型、主體、環境、構圖、風格的提示詞,包括:「超逼真照片」與「彩色照片」類型;「日本偶像」主體並詳細描繪臉部皮膚、眼睛、辮子等細節;「外景」、「黃金時間」與「動態燈光」之環境提示;「機前瀏覽(眼看鏡頭)」、「酷姿勢」為構圖提示;「底片紋理、膠卷仿真」等風格提示。另並進行輸入反向指令提示,包括:繪畫、卡通、動漫等要求,以避免此類風格出現於生成內容。 三、進行相關參數設定,以及多次試驗的調整,包括採樣方法、清晰度、圖形比例等不同參數設置。 貳、重點說明 北京互聯網法院根據原被告的陳述與提供的證據資料,認定原告的AI生成圖構成作品(受著作權保護),且原告享有該作品之著作權: 一、法院首先提出四個認定是否構成作品的判斷要件:1.是否屬文學、藝術、科學領域;2.是否具有獨創性(原創性);3.是否具有一定的表現形式;4.是否屬於智力成果。同時認為本案須審酌的重點在於獨創性與是否屬於智力成果。 二、關於「是否屬於智力成果」,法院認為從原告構思圖片到最終圖片選定為止,原告進行了一定的智力投入,例如設計人物的呈現方式、選擇提示詞、安排提示詞的順序、設置相關的參數、選擇符合預期的生成內容,已具備本要件。 三、至於「是否具有獨創性」,法院認為非有智力投入的都具有獨創性,如「按照一定的順序、公式或結構完成的作品,不同的人會得到相同的結果」,則屬「機械性的智力成果」,並不具有獨創性。但運用AI生成過程若能「提出的需求與他人越具有差異性,對畫面元素、布局構圖描述越明確具體」就越能呈現人作者的個性化表達。因此,法院認定原告雖然AI創作沒有使用畫筆,也與過去使用繪圖軟體不同,但原告對於人物及其呈現方式透過提供進行設計,並透過反覆的修改參數、調整修正,這過程呈現原告的審美觀,而亦可見不同人使用該AI工具可以自行生成不同的內容,故該作品「係由原告獨立完成、體現了原告的個性化表達」。 四、針對原告是否享有該圖作品的著作權,法院採肯定看法認為: 1.雖原告使用AI工具的行為類如委託他人設計,於委託時該是受託人為創作人,但委託與AI工具區別在於委託人具有自主意志,AI工具本身並沒有,不是自然人或法人等民事主體,依法(中國大陸著作權法)該AI工具本身無法成為作者而享有著作權。 2.事實上仍是人以工具進行創作,而工具的設計者亦已於GitHub論壇的授權條款中揭示該工具的授權人並不對使用者所生成的內容主張權利。 3. AI工具的設計者本身並沒有創作該圖的意願,亦無預先設定後續生成內容,未參與創作的生成過程,其訓練雖然是投入相當大的心力,但投入的是在工具的創建而非特定內容的生成。 參、事件評析 本案最終由原告獲得勝訴,法院認定被告侵害其姓名權與公開傳輸權,雖然法院認為使用AI工具的行為類如委託他人設計,於委託時該是受託人為創作人,但也認為AI工具本身並沒有自主意志,不是可享有著作權利的主體,依法(中國大陸著作權法)該AI工具的使用本質仍是人以工具進行創作,而工具的設計者並沒有生成內容的意思與投入,故應由多次修改呈現其個人表達念的使用者取得著作權。本文認為可以從此判決中獲得下述啟示: 一、對初次生成結果進行修改指令是取得原始性的重點:現今AI工具的使用,如要求程度不高,其實只須簡單的指令,例如生成一個xx的圖片,即可產生一張可用的圖片,但此時AI生成的內容僅是「按照一定的順序、公式或結構完成的作品,不同的人會得到相同的結果」,屬「機械性的智力成果」,將不具有獨創性。 二、反覆修改、調整參數呈差異化,即便是AI生成亦獲保護:運用AI生成過程應力求與他人的使用具有差異性,對畫面元素、布局構圖描述越明確具體,越能呈現人個性化表達,始能取得著作權保護。而反覆的修改參數,例如視線角度、光影呈現方式、表情姿勢要求等圖片的細節呈現,強化呈現個人化的思想、表達、創作投入,即可獲得著作權保護。 三、AI生成世代的著作保護更須重視創作歷程的存證:本案原告取得勝訴的重要關鍵,在其於本案中提出生成過程的影片佐證資料,證明其使用過程的需求(在黃昏的光線條件下具有攝影風格的美女特寫)、取捨(輸入反向指令提示,包括:繪畫、卡通、動漫等)、選擇(「日本偶像」主體並詳細描繪臉部皮膚、眼睛、辮子等細節)、安排與設計(「機前瀏覽(眼看鏡頭)」、「酷姿勢」等構圖)步驟呈現其多次試驗的調整的事實證明,若無此佐證影片,單依生成結果難以證明其創作投入,訴訟結果可能會變成敗訴。 四、AI生成工具的使用須注意生成結果的權利歸屬約定:即便本案針對原告使用AI生成工具的生成結果可受著作權保護,但原告是否享有該圖作品的著作權,法院再次確認工具的設計者的授權條款並沒有對使用者所生成的內容主張權利,若該條款約定使用者不依法可享有的內容權利,使用者的權益將受影響,是必須特別要注意的事情。 如同北京互聯網法院在判決中提及的,在照相機出現之前,人們需要高度的繪畫技術才能再現物體形象,但即便出現智慧型手機亦不影響我們運用它產生有獨創性的作品而構成攝影著作。可預見的未來AI技術會越發達,人的投入會越少,但這並不影響著作權制度鼓勵作品創作的立法意旨,只要有創作性的投入,即便只是反復的指令下達,也仍是受著作權法保護的獨特的個人作品。 [1]詳見臺灣智慧財產局頒布函釋說明生成式AI之著作權爭議,理慈國際科技法律事務所,https://www.leetsai.com/%E8%91%97%E4%BD%9C%E6%AC%8A/interpretation-released-by-taiwans-ipo-to-clarify-copyright-disputes-regarding-generative-ai?lang=zh-hant,最後瀏覽日期2023/12/04。該文提及的智慧財產局令函,本文未能於於該局之著作權函釋系統中檢索到。 [2]該局111-10-31以電子郵件1111031號令函提及有關人工智慧(AI)的創作,如是「以人工智慧為工具的創作」,也就是人類有實際的創意投入,只是把人工智慧(例如:繪圖軟體)當作輔助工具來使用,在這種情形依輔助工具投入創作者的創意而完成的創作成果仍可以受著作權保護,著作權則由該投入創意的自然人享有,除非有著作權法第11條及第12條之情形。 [3]判決全文詳見https://mp.weixin.qq.com/s/Wu3-GuFvMJvJKJobqqq7vQ,最後瀏覽日期2023/12/04。

日本公布「特定數位平臺之透明性及公正性提升法」之透明性及公正性評鑑指標

日本經濟產業省(METI)於2022年12月22日於官網公布「特定數位平臺之透明性及公正性評鑑」報告(特定デジタルプラットフォームの透明性及び公正性についての評価),首次針對擁有數位平臺的大型IT(Information Technology)企業完成交易機制透明性及公正性評鑑,並要求被評鑑之企業進行改善。 該評鑑依據「特定數位平臺之透明性及公正性提升法」 (特定デジタルプラットフォームの透明性及び公正性の向上に関する法律,以下稱「透明化法」),透明化法於2020年5月通過並已在2021年2月施行。其目的是為了提高交易之透明性以及公正性,具體指定「特定數位平臺」之企業,並列為評鑑對象,課予其有揭露或公開特定訊息,與進行改善的義務。 本次的評鑑內容,是依該法第4條第1項、第8條以及第9條第2項所定,交易條件之資訊揭露義務為基礎,由日本經濟產業大臣指定數位平臺企業(提供者の指定),進行個案評鑑(評価)並要求其改善(勧告)。依據個案評鑑之內容,日本針對數位平臺之透明度及公正性之判斷,歸納出下列具有共通性之指標: 1.企業有揭露交易條件之義務 2.企業有完善交易機制之義務 3.企業有積極處理用戶申訴與糾紛之義務 4.針對應用程式商店(アプリストア),課徵手續費(手数料)與會員付款結帳(課金)方式之限制,企業有詳細說明之義務 5.企業本身或關係企業與平臺其他用戶之間須公平競爭,例如:企業與直營或非直營商店之間,具有利害關係或有優待行為時,企業須公開其管理方針,並列入內部稽核事項,使其能檢視差別對待之正當性。 6.停用帳戶或刪除之手續,企業在30天之前,就該處置之內容和理由,對消費者有通知之義務。 7.退款或退貨之流程,企業有積極和具體說明之義務,且須將處置成果公開。 關於評鑑對象之指定,是依同法第4條第1項所授權,由日本經濟產業省進一步於2021年2月1日頒布政令,以事業種類與規模進行區分。此外,被列為評鑑對象之企業必須在每年5月底前,各自將企業內部的因應措施,提交總結報告,並由經濟產業大臣進行審閱。值得注意的是,依評鑑結果所要求的改善措施,原則上以企業自主改善為要旨,但日本政府目前正商討今後是否需要以強制力介入;對於被列為評鑑企業之後續改善措施及透明化法之推動方向,值得作為我國數位平臺治理政策之借鏡與觀察。

美國參議院通過《兒童網路隱私保護法》與《兒童網路安全法》,有望加強兒少網路安全保護力道

在數位時代,兒童及青少年長時間使用網際網路已成為生活常態,然而,兒少在高度使用社群媒體的同時,也透過演算法大量獲取諸如飲食失調、自殘等「有毒內容」(toxic content)。在享受網路便利性的同時,兒少也面臨遭受騷擾、霸凌,被迫轉學甚至輕生等困境,心理健康面臨危機。為解決前揭問題,美國參議院於2024年7月30日通過《兒童網路隱私保護法》(Children’s Online Privacy Protection Act, COPPA)修正法案及《兒童網路安全法》(Kids Online Safety Act, KOSA)之立法,加強兒少網路安全之保護。 COPPA早於1998年制定,並於2000年開始施行,該法案對於網路營運商蒐集未滿13歲兒童之個人資料相關隱私政策訂有規範,惟自訂定後迄今約25年,均未因應時代變遷做出調整,終於在本次會期提出修正草案。另KOSA之立法重點,則在於要求網路平台業者對兒童預設提供最高強度隱私設定,並建立控制措施,提供父母保護子女及認知到有害行為的機制,課予網路平台業者預防及減輕兒童陷於特定危險(如接收宣傳有毒內容之廣告)之義務等。此二法案經參議院投票通過後,合併為一案送交眾議院審核,重點說明如下: 1.將網路隱私保護主體擴張至未滿13歲之兒童及未滿17歲之青少年(下稱兒少),禁止網路平台業者在未經兒少使用者同意情況下,蒐集其個人資料。 2.禁止網路平台業者對兒少投放定向廣告(targeted advertising)。 3.為保護「合理可能會使用(reasonably likely to be)」網路平台的兒少,調整法案適用的「實際認知(actual knowledge)」標準,將適用範圍擴及至「合理可能被兒少使用(reasonably likely to be used)」的網路平台。 4.建立「清除鈕(eraser button)」機制,使兒少及其父母得以要求網路平台業者在技術可行情況下,刪除自兒少所蒐集之個人資料。 5.要求商務部(the Secretary of Commerce)於新法頒布後180日內,應成立並召集兒童網路安全會議(Kids Online Safety Council),進行包含識別網路平台對兒少造成危害之風險,提出相關評估、預防及減輕危害之建議措施及方法、進行與網路對兒少造成危害相關主題之研究等業務。 觀本次可謂美國對於兒少網路保護之重大進展,惟此法案後續是否能順利提請總統簽署成法,正式具約束效力,仍須持續關注眾議院未來動向。

TOP