澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)

2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。

1. AI之定義

此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。

2.適用範圍

(1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。

(2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。

3.適用此政策之機構,須滿足下列2要件

(1)公布透明度聲明

各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。

(2)提交權責人員(accountable official,下稱AO)名單

各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。

所謂AO的職責範圍,主要分為:

I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。

II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。

III.擔任機構內協調AI的聯絡窗口

IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。

本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
※ 澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9240&no=55&tp=1 (最後瀏覽日:2026/01/05)
引註此篇文章
你可能還會想看
歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

德國民眾對奈米科技關切評估報告出爐

  為了瞭解德國消費者對於市面上眾多應用「奈米」科技之消費產品的想法,德國聯邦風險評估研究所(Bundesinstitut für Risikobewertung,BfR)於2007年抽樣調查一千位消費者,並於該年底公布調查結果。根據該問卷調查結果顯示,超過三分之二(66%)受訪者對於奈米科技發展持樂觀態度,並認為應該支持奈米科技的持續發展,並且認為奈米科技改善了生活品質以及其帶來的效益勝過風險。   但是,對於不同領域所應用之奈米科技,受訪者卻表現出不同的態度。因此該研究所所長Andreas Hensel認為,消費者不是依據事實為評價,而是依據「感性標準」。也就是說,他們所「感覺到」的風險在他們理解新科技時扮演重要角色。   相較於2004年所做的問卷調查,目前約有52%的受訪者聽過奈米概念,之前的調查結果只有15%。多數受訪者相信奈米可以幫助醫學領域的發展;其也相信應用奈米於顏料、漆料可提高耐刮與耐磨之能力。在紡織品領域也一樣,民眾相信防污的產品;受到民眾接受的還包括奈米科技在包裝材料以及防曬產品領域之應用。不過,對於其他化妝品卻只有53%的受訪者相信奈米的改善功能。絕大多數受訪者都拒絕將奈米科技應用於食品:69%受訪者拒絕添加「奈米」於調味料,即使奈米可以防止結塊;而就算因此可以延長食物保存期限,也有高達84%的受訪者拒絕在食物中添加奈米微粒。   多數的消費者獲取奈米科技資訊主要來自於大眾媒體,如電視、報紙、期刊與網際網路。但是他們是否相信該資訊,則取決於提供者為何,最受信賴之資訊來自於消費者組織,如消費者保護團體以及產品檢測基金會(Stiftung-Warentest)以及科學界(92%),最不受信賴的資訊則來自於經濟(32%)與政治(23%)。

美國國際消費電子展研討會討論有關打擊專利蟑螂議題

  美國國際消費電子展(International Consumer Electronics Show, CES)是每年全球介紹消費性電子產品的第一場重頭戲,2013年於美國時間1月8日在拉斯維加斯會議中心(Las Vegas Convention Center, LVCC)展開,展期持續四天。CES展展出面積17萬平方公尺,有超過3,250個參展公司,展出20,000種最新科技的電子產品,超過15萬人次參加。除了展出電子產品最新趨勢,CES同時也對於電子資訊相關議題開設研討會議,今年共有超過300場的研討會。   其中有一系列名為「創新政策高峰會」(Innovation Policy Summit)的研討會主題,討論政府部門如何與企業合作促進經濟成長及創新應用。高峰會中除邀請各科技領域中的創新發明者,還邀請政府部門、國會議員等,討論與科技政策最相關的種種議題。值得注意的是,創新政策高峰會中一場主題為「打擊專利蟑螂」(Fighting the Patent Trolls)的研討會於1月8日舉行,討論有關政府及民間業者如何打擊影響科技產業的專利蟑螂(Patent Trolls),與會者除了有眾議員Peter DeFazio,還有Google、電子前線基金會(Electronic Frontier Foundation,EFF)、電子製造商Voxx International、零售商Home Automation等等企業代表,分享被專利蟑螂控訴專利侵權的經驗及提供意見。   在研討會中討論出的打擊方案有以下幾點: ‧擴展DeFazio眾議員提案的「保護高科技創新者免於惡意訴訟法案」(The Saving High-tech Innovators from Egregious Legal Disputes Act, SHIELD Act)到其他受專利蟑螂攻擊的產業,同時修改法案要求原告應在法院判決其負擔被告訴訟費用時,同時提出擔保金。 ‧應簡化專利局審核時質疑(challenge)不良專利的程序。 ‧在專利訴訟中對實際損害(actual damages)應提出更明確證據,並應更嚴格審查核發初步禁制令。 ‧科技公司應設法自救或組成聯盟,或者推廣Twitter公司2012年提出的「專利發明者協議」(Innovator Patent Agreement),該協議讓公司內專利發明者對其發明專利有更大控制權,並承諾公司僅會將其專利用於防衛用途。   其中第一點的SHIELD法案,是眾議員DeFazio及Jason Chaffetz為遏止專利蟑螂於2012年8月共同提案。該法案目標在打擊專利蟑螂,針對電腦軟硬體提出的專利訴訟,原告若無勝訴之合理可能性(reasonable likelihood of succeeding),法院得判決原告必須負擔被告訴訟費用及律師費用,以達到遏止專利蟑螂的目的。然而目前SHIELD法案立法進度停滯,DeFazio預計將提出修正版本爭取通過。DeFazio表示,該法案若要成功立法,需要各界聯合及廣泛支持。

日本自動駕駛戰略本部新近政策規劃

  日本鑒於為減少交通事故與因應少子化,與汽車的ICT革命等議題,由國土交通省於2016年11月25日設立「自動駕駛戰略本部」(自動運転戦略本部),並於同年12月9日召開第一次會議。討論的範圍則包括:為實現自動駕駛的環境整備、自動駕駛技術的研發、普及與促進,以及為實現自動駕駛的實證與社會試驗。   會議結論則由國土交通大臣指示針對「車輛的技術基準」、「年長者事故對策」、「事故發生時的賠償規則」、「大卡車列隊行走」、「以非平地休息服務站為據點的自動駕駛服務」等議題速成立工作小組,將對自動駕駛所應用技術進行各類型實證試驗。   其中,在「以非平地休息服務站為據點的自動駕駛服務」方面,已於2017年2月展開補助試驗計畫的募集;預計驗證的項目有分別針對一般(搭載2-10人)以及大型車輛(10人以上),結合GPS、雷達、攝影機等來瞭解障礙物資訊的車輛自動控制技術。   而在「大卡車列隊行走」方面,國土交通省則是在2016年已開始的實證試驗基礎上持續拓展。未來在2019年中後,並規劃將驗證範圍擴展至高速公路上驗證更長距離的自動駕駛。

TOP