世界經濟論壇(World Economic Forum, WEF)於2022年11月15日發布《贏得數位信任:可信賴的技術決策》(Earning Digital Trust: Decision-Making for Trustworthy Technologies),期望透過建立數位信任框架(digital trust framework)以解決技術開發及使用之間對數位信任之挑戰。
由於人工智慧及物聯網之發展,無論個人資料使用安全性還是演算法預測,都可能削弱人民對科技發展之信賴。本報告提出數位信任路線圖(Digital trust roadmap),說明建立數位信任框架所需的步驟,以鼓勵組織超越合規性,指導領導者尋求符合個人與社會期望之全面措施行動,以實現數位信任。路線圖共分為四步驟:
1.承諾及領導(commit and lead):數位信任需要最高領導階層之承諾才能成功,故需將數位信任與組織戰略或核心價值結合,並從關鍵業務領域中(例如產品開發、行銷、風險管理及隱私與網路安全)即納入數位信任概念。
2.規劃及設計(plan and design):透過數位信任差距評估(digital trust gap assessment)以瞭解組織目前之狀態或差距,評估報告應包括目前狀態說明;期望達成目標建議;治理、風險管理與合規性(governance, risk management and compliance, GRC)調查結果;將帶來之益處及可減輕之風險;計畫時程表;團隊人員及可用工具;對組織之影響等。
3.建立及整合(build and integrate):實現數位信任需關注人員、流程及技術等三大面向。首先需確保人員能力、達成該能力所需之資源,以及人員溝通與管理;第二,定義組織數位信任流程,包括制定計劃所需時程、預算及優先實施領域,調整目前現有管理流程,並識別現有資料資產;最後,針對技術使用,可考慮使用AI監控、雲端管理系統以及區塊鏈等,以監測資料之使用正確性及近用權限管理。
4.監控及滾動調整(monitor and sustain):建立數位信任框架後,需持續建構相關績效及風險評估程序,以確保框架之穩定,並根據不斷變化的數位信任期望持續改善,以及定期向董事會報告。
從國際體育項目認定方式觀電子競技正名 資策會科技法律研究所 法律研究員 丘瀚文 104年12月 壹、前言 電子競技目前仍無統一定義,本文對其定義是「利用電子設備,使參與者能在虛擬的空間中進行之競賽活動」。2015年10月26日臺北市產發局局長私下拜會教育部體育署,請求體育署將電子競技正名為體育項目,教育部雖未給予肯定回答,僅回覆需經由國際奧林匹克委員會(International Olympic Committee,下稱:國際奧會)及中華奧林匹克委員會認可,電子競技方能成為正式運動項目,可知電子競技已開始獲得官方注意[1]。 為何電子競技需要正名為體育項目?蓋現行電子競技選手多為年輕族群,常面對兵役、學業兩大方面問題,其中又以兵役問題影響最大,選手除了必須以延畢的方式躲避兵役,且無法至其他國家電子競技戰隊長時間服務,否則可能違反妨害兵役治罪條例之核准出境期限問題[2]。又現今社會普遍對於電子競技認識仍停留玩樂的印象,而並非產業鏈,此點造成電子競技贊助與推廣困難重重;而電子競技獲正名體育項目後,電子競技之贊助企業得依法減稅[3],可吸引更多廠商投資產業鏈,對整體電子競技產業推廣而言將獲益匪淺[4]。 既已得知電子競技正名體育項目重要性,故以下便從「體育項目認定依據」與「體育項目認定要件」兩方面分析之。 貳、評析 一、我國體育項目認定依據 依體育署2015年10月26日之新聞稿,我國當前推展運動政策主軸仍以發展奧運、亞運運動項目為優先考量,故對於「電子競技」列為運動項目的議題,該署認為尚須得國際奧會與國際單項體育總會聯合會(SportAccord,下稱:單體總會)認可方得為之[5]。 惟查我國體育法並無體育項目認定一詞,上開說法並無法令依據,其論述基礎應為教育部所提出之體育運動政策白皮書所稱「……目前我國體育政策目標為提升我國國際競技運動水準,故以奧運、亞運項目為主去做選手培育與全民推廣,因而體育發展重點集中傳統體育項目上」[6]。在此前提下,電子競技欲獲承認為正式體育項目,實僅須我國體育政策變更,體育項目之認即毋庸與國際奧會與單體總會之認定連結。惟現今政策尚未更改,以下便依現行政策,研析國際奧會與單體總會對於體育項目之認定標準,並對電子競技是否符合國際認定體育項目標準進行分析。 二、國際奧會與單體總會認定體育項目要件 我國於政策上要求體育項目需經由國際奧會與單體總會承認者方得成為我國正式體育項目,故以下即就國際奧會與單體總會體育項目認定標準進行研析。 (一)國際奧會體育項目之認定門檻 奧林匹克運動會競賽項目分為夏季與冬季,其設置和取消均由國際奧會全體委員決定。依據2002年國際奧會所發佈之奧林匹克計畫和建議,可列入夏季奧林匹克運動會計畫的新項目必須符合至少4個洲75個國家發展男子體育項目、至少3個洲40個國家發展女子體育項目;而冬季奧運會比賽項目則須至少有3個洲25個以上國家發展體育項目,方得列為冬季奧林匹克運動會項目[7]。 (二)單體總會體育項目之認定標準 單體總會是受少數受到國際奧會認可的國際性體育組織,在國際間管轄一項或多項動項目,並管轄區域性國際運動總會,如國際籃球總會FIBA、國際足球總會FIFA、國際游泳聯合會;其主要任務是負責運動項目的技術監督和行政管理方面的工作,具體作用則是制訂並推廣運動計畫並保證該運動計畫在全世界的開展[8]。 單體總會將運動分為心智、肢體、機動性、協調性、動物駕馭5大類,而所有運動均應包含如下5個要件[9]: 1.該項運動必須包含競爭的成分。 2.該項運動不能存有任何「運氣」成分。 3.該項運動不應對運動員或參與者的健康與安全造成過度的風險。 4.該項運動不能傷害任何生物。 5.該項運動不得僅依賴單一供應商所提供的設備。 三、電子競技通過國際體育項目審查的可能性 目前全球有正式法規、行文認可電子競技為正式運動項目的國家僅有中國、韓國、義大利、馬來西亞及美國,仍未達較低門檻之冬季奧運會承認項目標準,即3個洲合計25個以上國家發展體育項目,故目前電子競技恐無法通過國際奧會體育項目認定標準。 單體總會體育項目承認標準中,電子競技雖符合競爭成分要求、且未對運動員或參與者的造成安全過度風險與傷害生物,但要件中之「不能存有任何運氣成分」與「不得僅依賴單一供應商所提供的設備」則可能出現問題;因為電子競技中常常有所謂機率性的道具存在遊戲中,且知名遊戲製作常常依賴單一遊戲製造商所提供。 本文認為「單一供應商所提供設備」是忽略了電子競技比賽項目為數款遊戲,其無依賴單一或特定遊戲供應商。但在另一方面,由於電子競技機率性的道具影響,往往大於其他運動的不穩定因素(如天氣、濕度),致使其競爭公平性存疑;電子競技為一個集合名詞,其包含各式電子競技遊戲,縱使認為電子競技項目可納入全無機率性道具遊戲做為體育項目,亦難防因遊戲資料更新或遊戲代理商更易,而使遊戲內容改變為具有機率性道具之要素,故本文認為電子競技難以通過單體總會之體育項目認定標準。 參、結論 電子競技是否為正式體育項目現今固仍有爭議,惟根據資策會產業情報研究所(MIC)統計,台灣2014年遊戲業產值新台幣506億元,較2013年的453億元成長11.7%,產值已然不可小覷[10],產值逐年增加確是不爭事實,而我國在此電子競技領域競賽,獲得亮眼成績。電子競技更從硬體周邊、遊戲製作、競技賽事發展到轉播授權形成一個不可忽視的產業鏈。事實上,依《國民體育法》第1條,體育之目的為鍛鍊國民健全體格,培養國民道德,發揚民族精神及充實國民生活,而電子競技與智力體育項目如橋牌、象棋等類似,均具有培養國民道德與充實國民生活功能,亦符合當前《國民體育法》立法精神,也能達推動電子競技產業鏈目的。但礙於傳統社會觀感使電子競技推行面臨家長不贊同孩子投入、企業亦不願贊助的窘境,雖此問題並非一定要靠正名電子競技方式解決,但正名電子競技絕對是成本以及效果最顯著方式。因此,關於體育項目認定,本文認為應修正現行體育政策,使我國體育項目認定與國際體育團體認可脫鉤,使電子競技可獲得官方認可,擺脫民間負面印象並帶動電子競技周邊商品銷售,促進經濟成長。 [1] Zou Chi,〈電競才正名為運動項目 體育署不到半天就反悔〉,The News Lens 關鍵評論,2015/10/27,http://www.thenewslens.com/post/237818/ (最後瀏覽日期:2015/01/07) [2] 妨害兵役治罪條例第3條「役齡男子意圖避免徵兵處理,而有下列行為之一者,處五年以下有期徒刑一、徵兵及齡男子隱匿不報,或為不實之申報者。三、徵兵檢查無故不到者。七、核准出境後,屆期未歸,經催告仍未返國,致未能接受徵兵處理者。」(節錄) [3] 運動產業發展條例第26條「營利事業合於下列之捐贈,得依所得稅法第三十六條第一款規定以費用列支,不受金額限制: 一、捐贈經政府登記有案之體育團體。二、培養支援運動團隊或運動員。三、推行事業單位本身員工體育活動。」(節錄) [4] 周之鼎、洪聖壹,〈台灣電競之路(上):10年翻轉最速!電子競技產業須正名〉,ET遊戲雲,2015/11/09,http://www.new0.net/%E5%8F%B0%E7%81%A3%E9%9B%BB%E7%AB%B6%E4%B9%8B%E8%B7%AF(%E4%B8%8A)%EF%BC%9A10%E5%B9%B4%E7%BF%BB%E8%BD%89%E6%9C%80%E9%80%9F%EF%BC%81%E9%9B%BB%E5%AD%90%E7%AB%B6%E6%8A%80%E7%94%A2%E6%A5%AD%E9%A0%88%E6%AD%A3%E5%90%8D-1093122.html(最後瀏覽日期:2015/12/31) [5] 教育部體育署,〈對體育署將「電子競技」列為運動項目回應說明〉,2015/10/26,http://www.sa.gov.tw/wSite/ct?xItem=15870&ctNode=300&mp=11 (最後瀏覽日期:2015/12/31) [6] 教育部,〈體育運動政策白皮書〉,2013/09,http://www.sa.gov.tw/saAdmin/gipadmin/site/public/Data/f1392626664065.pdf?ctNode=1140&idPath=214_226_1140(最後瀏覽日期:2015/12/31) [7] OLYMPIC PROGRAMME COMMISSION,Review of the olympic programme and the recommendations on the programme of the games of the xxix olympiad, beijing 2008(2002), http://www.olympic.org/Documents/Reports/EN/en_report_527.pdf (last visited Dec. 16, 2015). [8] OLYMPIC.ORG,IOC statement on SportAccord(2015), http://www.olympic.org/news/ioc-statement-on-sportaccord/246251 (last visited Jan. 8, 2016) [9] SPORTACCORD,Definition of sport, http://www.sportaccord.com/about/membership/definition-of-sport.php (last visited Dec. 16, 2015). [10] 吳金英,〈遊戲軟體業:中國將取代美成為手遊大國〉,2015/08/04, http://www.topology.com.tw/news/newscontent.asp?ID=PC0AFD9B3B0K9N1HCPJQ1NT5P2 (最後瀏覽日期:2015/12/31)
澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
日本《人工智慧技術研究開發及應用促進法》簡介日本《人工智慧技術研究開發及應用促進法》簡介 資訊工業策進會科技法律研究所 2025年06月25日 為全面性且有計畫地推動人工智慧(以下簡稱AI)相關技術之研發及應用,同時為改善國民生活和促進國家經濟健康發展做出貢獻,日本內閣於2025年2月28日提出《人工智慧技術研究開發及應用促進法》(以下簡稱本法)草案。 [1] 本法進一步於同年5月28日經參議院表決通過[2] ,通過之條文內容與2月28日提出之草案並無二致,惟5月27日內閣委員會另外通過20點附帶決議[3] ,其中涵蓋共多具體措施。本法於6月4日公布施行[4] ,以下將介紹本次日本《人工智慧技術研究開發及應用促進法》及附帶決議內容。 壹、立法緣由 近年AI技術及應用蓬勃發展,然而日本卻深感國內對AI發展不如其他主要國家,依據科學技術創新推進事務局(科学技術・イノベーション推進事務局,以下簡稱科技事務局)釋出之立法概要,本次立法主要有兩大理由 [5]: 一、國內AI技術開發、應用起步緩慢 科技事務局引用史丹佛大學於2024年所發布之《AI指數報告》(AI Index Report 2024),該份報告彙整2023年各國對於AI相關產業之民間投資額,如下圖所示。從此圖可知,作為世界主要經濟體的日本,對於AI的民間投資於2023年竟僅有6.8億美元,遠遠不及美國的670.22億美元、中國77.6億美元及英國37.8億美元。[6] 圖一、各國對於AI相關產業民間投資額統計 資料來源:STANFORD INSTITUTE FOR HUMAN-CENTERED AI [HAI], Artificial Intelligence Index Report (2024). 此外,根據日本總務省於2024年所發布之調查結果,如下圖所示,日本僅有9.1%的國民有使用過生成式AI之經驗,相較於中國的56.3%、美國的46.3%、英國的39.8%及德國的34.6%,仍有相當程度之落後。 [7] 圖二、各國國民使用過生成式AI之經驗調查 資料來源:総務省,令和6年版情報通信白書 不僅國民的AI使用率低,日本總務省亦針對企業將AI運用於其業務進行調查,如下圖所示,目前有在使用AI之企業僅有46.8%(包含已取得具體成效及尚未取得成效),其餘53.2%之企業則正在測試階段、正在商議導入或至今仍未討論導入。對比中國的95.1%、德國的80.6%及美國的78.7%,雖不如國民使用率落後,但仍有不少進步空間。[8] 圖三、各國企業業務中AI運用情形調查 資料來源:総務省,令和6年版情報通信白書 二、多數國民對於AI仍感到不安 科技事務局引用KPMG於2023年所發布的《全球AI信任研究報告》(Trust in AI: A Global Study 2023),僅有13%的日本國民認為現行法規已足以確保AI可被安全使用,亦低於中國的74%、德國的39%及美國的30%。此調查結果亦如實反映出有77%的日本國民迫切希望國內能針對AI訂定相關規範。[9] 除上述兩項主要理由外,考量日本有需要進一步促進創新發展、積極應對AI產生之風險,因此科技事務局決定訂立新的AI法規。 貳、立法重點 《人工智慧技術研究開發及應用促進法》總計28條,共分為四個章節,包含第一章總則(第1條至第10條)、第二章基本政策實施(第11條至第17條)、第三章人工智慧基本計畫(第18條)及第四章人工智慧戰略本部(第19條至第28條)。考量依法規條文及章節順序不易說明,以下將以科技事務局所提供之立法概要之脈絡進行說明。 一、目的 第1條即說明本法旨在全面且有計畫地制定AI相關政策,推動AI技術之研發與應用,以改善國民生活並為國民經濟發展做出貢獻。 二、基本理念 第3條亦規定AI技術之研發與應用應以提升AI產業之國際競爭力為目標,希冀藉由AI技術創造高效率新業務,並得以應用於國民日常生活與經濟活動之各階段,另考量AI技術若經不當使用,將有助漲犯罪行為或洩漏個資等風險發生之可能性,故應確保AI技術之正確使用。最後,同條亦規定日本應在AI技術之研發與應用上進行國際合作,並努力在國際合作中取得主導地位。 三、AI戰略本部 本法第四章皆為設立AI戰略本部相關之條文,第19條、第20條及第25條第2項規定AI戰略本部應由內閣所設立,其職責有以下兩項: (一)研擬AI基本計畫草案,並推動相關事宜。 (二)促進AI相關技術研發及應用相關重要政策之規劃、提案及統籌協調等事宜。 (三)除本法規定的事項外,總部相關必要事項由政令規定。 為使AI戰略本部可順利履行上述職責,第25條賦予AI戰略本部認為有必要時,得向行政機關、地方公共團體、獨立行政機構、地方獨立行政機構的首長以及公共機關的代表,要求提供資料、發表意見、進行說明及提供其他必要協助。 第21條至第28條則為與本部組成相關之規定,其規定AI戰略本部組成成員包含以下三個職位: (一)部長:由總理擔任,掌管總部事務,並領導監督總部工作人員。 (二)次長:由官房長官及AI戰略大臣(由總理任命)擔任,負責協助部長履行職責。 (三)由除部長、次長以外的所有國務大臣組成。 四、AI基本計畫 如上所述,AI戰略本部重要職責之一,即研擬AI基本計畫草案。依第18條規定,總理應將AI戰略本部所研擬之AI基本計畫草案,提請內閣決定是否同意草案內容,待內閣作成決定後,總理應立即公布AI基本計畫。 同條亦明定AI戰略本部應以前述第二節的基本理念及以下第五節的基本政策實施之相關規定為基礎,研擬AI基本計畫草案,其應涵蓋之事項包含: (一)AI技術研發及應用政策實施的基本方針。 (二)為促進AI技術研發及應用,政府應全面性且有計畫地實施政策。 (三)政府為能全面性且有計畫地實施政策所採取的必要措施。 五、基本政策實施 第二章所涵蓋之第11條至第17條則規定政府應執行之基本政策實施事項,包含: (一)促進AI技術研發 依第11條規定,國家應採取措施促進AI技術研發,使AI技術可順利從基礎研究階段進展至實際應用階段,並在研發機構間建立研發成果得以互相流通之制度,同時提供研發成果資訊。 (二)提升基礎設施建置與使用 依第12條規定,國家應採取措施建置AI基礎設施,包含AI技術研發及應用所需之大規模資料處理、資通訊、電磁紀錄儲存等設備及為特定目的所收集之資料集等,並使AI基礎設施得以廣泛供研發機構或企業所使用。 (三)確保符合國際規範 依第13條規定,國家應根據國際規範制定基本方針並採取其他必要措施,以確保AI技術之研發及應用得以適當之方式進行。 (四)確保人力資源 依第14條規定,國家應與地方政府、研發機構和企業緊密合作,並採取必要措施,以確保、培訓和提升各領域人才的專業素質,使其具備AI技術從基礎研究至實際應用於民眾生活或經濟活動之各階段所需之專業知識,並提升其專業知識之廣度及深度。 (五)提升教育 依第15條規定,國家應提升與AI技術相關之教育與學習、辦理推廣活動或採取其他必要措施,以增進大眾對AI技術之認知與興趣。 (六)研究調查 依第16條規定,國家應掌握國內外AI技術研發及應用之最新趨勢,並進行有助於AI技術研發及應用發展之研究與調查,包含分析因不正當目的或不適當方法研發應用所導致國民受侵害之案例,及針對不正當使用之因應對策。 同時,國家亦應根據此類研究調查成果,向研發機構、企業和其他人員提供指導、建議和最新資訊,並採取其他必要措施。 (七)國際合作 依第17條規定,國家應進行AI技術研發及應用之國際合作,積極參與國際規範之制定過程。 六、職責 第4條至第8條分別規定國家、地方政府、研發機構、企業與國民應各司其職,其職責分述如下: (一)國家 依第4條規定,國家應依前述第二節的基本理念,制定並實施促進AI技術研發及應用之基本政策實施相關之計畫。此外,國家應在行政機關間積極應用AI技術,以提升行政效率。 (二)地方政府 依第5條規定,地方政府應依前述第二節的基本理念,在與國家進行適當分工後,結合各地方特色,制定並實施自主政策,以促進AI技術之研發及應用。 (三)研發機構 依第6條規定,大學及研發機構應依前述第二節的基本理念,積極進行AI技術之研發,推廣其成果,培育具有專業性和廣泛知識之人才,並協助國家與地方政府之政策實施,而國家與地方政府則應促進大學研究活動,尊重研究人員自主權及將各大學之特色納入考量。 此外,研發機構應進行跨領域或綜合性研發,同時為有效推動AI技術研發,應綜合考量人文科學及自然科學等領域之專業知識。 (四)企業 依第7條規定,任何企業有意開發或提供使用AI技術之產品或服務,或任何其他有意在其業務活動中使用AI技術,應依前述第二節的基本理念,提升其業務之效率和品質。 此外,上述企業應透過積極使用AI技術創造新興產業,並須配合執行國家依第4條所定之措施及地方政府依第5條所定之措施。 (五)國民 國民應依前述第二節的基本理念,加深對AI技術之認知與興趣,並盡可能配合執行國家依第4條所定之措施及地方政府依第5條所定之措施。 七、附帶決議 本次立法過程除條文本身外,5月27日內閣委員會亦通過20點附帶決議,針對政府實施本法時應採取之適當措施進行補充說明,以下摘錄重點說明 :[10] (一)政府應以「以人為本之AI社會原則」為基礎,進行AI技術研發及應用。 (二)政府制定AI基本計畫和基本方針,或執行政策措施時,應將風險降至最低,並考量推廣AI之益處。 (三)企業和國民應充分了解AI應用之注意事項及規避風險之措施,並透過教育使國民了解AI合理使用方法及其風險。 (四)政府針對AI應用導致之失業或貧富差距擴大採取必要措施。 (五)政府應透過法規打擊AI技術之濫用,特別是利用兒童圖像產生之深偽色情內容,並加強對網站管理員刪除違法內容之監管,保護受害者。 (六)政府和民間機構將合作開發以日語為基礎之大型語言模型。 (七)政府應消除新創企業等新進者之壁壘,創造公平開放之市場環境。 (八)政府應將AI定位為國家戰略重要領域。 (九)政府應考慮電力供需,策略性地建設資料中心。 (十)政府應以跨學科之觀點強化對AI人才之培養,並確保足夠有投資。 (十一)政府應積極營造有利於國家、地方政府、企業應用AI之環境,並避免因營運效率提升而出現裁員情形。 (十二)政府應執行降低AI風險之措施,並進行公私合作以確保安全。 (十三)政府於進行調查和指導時,應避免施加過重之負擔或要求過多資訊揭露,同時考慮保護企業之商業機密等智慧財產權。 (十四)政府於國民權益受害之個案進行調查和指導時,應即時自企業或服務使用者和人工取得資訊,以便迅速發現個案並因應。 (十五)針對依《廣島人工智慧進程國際行為準則》負有報告義務之企業,政府應最大限度地減少其與現行國內法規之報告義務之重複。 (十六)政府應不斷修訂本法及其他相關計畫與方針,以確保AI應用能促進國民生活改善和國民經濟發展,並及時應對新風險。 (十七)AI戰略總部之組織架構,應消除各部會、機構垂直分工造成之弊端,並積極自民間招募人才。 (十八)政府應儘早成立由AI倫理、法律和社會議題等領域專家組成的智庫機構。 (十九)如出現現行法規難以因應之新風險,政府應考慮導入風險導向之概念,依風險等級而採取不同監管措施。 (二十)因應AI應用產生之智慧財產權相關侵權行為,政府應參考其他國家之情形,探討因應措施。 參、總結 日本緊接著韓國之後,成為亞洲第二個在法律層級通過AI法規的國家,惟相較歐盟或韓國通過的AI法,日本在法律條文的訂定上,主要是針對政府與各界之職責進行規範,而缺乏對於AI技術開發或應用風險之監管。儘管附帶決議中較多具體內容,仍須待AI基本計畫訂定後,日本對於AI技術開發或應用之監管模式才會有較清晰之雛形。 考量到日本尚有通過20點附帶決議,日後仍可關注AI戰略本部如何依據AI法及附帶決議擬定AI基本計畫,未來或可成為我國人工智慧法制政策規劃之參考依據。 [1]人工知能関連技術の研究開発及び活用の推進に関する法律案(第217回閣法第29号)。 [2]〈議案情報:人工知能関連技術の研究開発及び活用の推進に関する法律案〉,参議院,https://www.sangiin.go.jp/japanese/joho1/kousei/gian/217/meisai/m217080217029.htm(最後瀏覽日:2025年6月11日)。 [3]参議院,〈人工知能関連技術の研究開発及び活用の推進に関する法律案に対する附帯決議〉,https://www.sangiin.go.jp/japanese/gianjoho/ketsugi/current/f063_052701.pdf(最後瀏覽日:2025年6月11日)。 [4]人工知能関連技術の研究開発及び活用の推進に関する法律法律(令和7年法律第53号)。 [5]內閣府,〈人工知能関連技術の研究開発及び活用の推進に関する法律案(AI法案)概要〉,https://www.cao.go.jp/houan/pdf/217/217gaiyou_2.pdf(最後瀏覽日:2025年6月11日)。 [6]STANFORD INSTITUTE FOR HUMAN-CENTERED AI [HAI], Artificial Intelligence Index Report (2024), https://hai.stanford.edu/assets/files/hai_ai-index-report-2024-smaller2.pdf (last visited June 11, 2025) [7]総務省,〈令和6年版情報通信白書〉,https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/r06/pdf/n1510000.pdf(最後瀏覽日:2025年6月11日)。 [8]総務省,〈令和6年版情報通信白書〉,https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/r06/pdf/n1510000.pdf(最後瀏覽日:2025年6月11日)。 [9]KPMG, Trust Inartificial Intelligence: Country Insights on Shifting Public Perceptions of AI (2023), https://assets.kpmg.com/content/dam/kpmgsites/xx/pdf/2023/09/trust-in-ai-country-insight.pdf.coredownload.inline.pdf (last visited June 11, 2025). [10]参議院,〈人工知能関連技術の研究開発及び活用の推進に関する法律案に対する附帯決議〉,https://www.sangiin.go.jp/japanese/gianjoho/ketsugi/current/f063_052701.pdf(最後瀏覽日:2025年6月11日)。
奧克蘭市(Oakland)成為美國第三個禁止公部門使用人臉辨識技術的城市近年來,人臉辨識(Face recognition)技術迅速發展,增加便利性的同時,也伴隨了種種隱憂,如:對隱私權的侵害、公部門權力濫用等,是以加州舊金山市(San Francisco)和麻薩諸塞州薩默維爾市(Somerville)分別在今年(2019)5月和6月發布公部門使用人臉辨識技術的相關禁令,加州奧克蘭市(Oakland)並於7月16日跟進,成為美國第三個禁止公部門使用人臉辨識技術的城市。 2018年麻省理工學院曾針對人臉辨識技術的正確率做過研究,其研究結果報告顯示黑人女性辨識錯誤率超過30%,遠不如白人男性;美國公民自由聯盟(American Civil Liberties Union, ACLU)也針對Amazon人臉辨識軟體Rekognition做過測驗,結果該系統竟誤將28名美國國會議員顯示為嫌疑犯,這兩項研究顯示,人臉辨識技術存有極高錯誤率且對種族間存有很大的偏見與歧視。對此奧克蘭市議會主席卡普蘭(Rebecca Kaplan)一項聲明中表示:「當多項研究都指出一項新興技術具有缺陷,且造成寒蟬效應的時候,我們必須站出來」。 卡普蘭並表示:「建立社區和警察間信任與良好關係以及導正種族偏見是很重要的,人臉辨識技術卻反而加深此問題」、「對於隱私權和平等權的保護是最基本的」,故奧克蘭市通過禁止公部門使用人臉辨識技術的法令,原因如下: 人臉辨識系統所依賴的資料集,具高度不準確性。 對於人臉辨識技術的使用與共享,尚缺乏標準。 這項技術本身具有侵犯性,如:侵犯個人隱私權。 政府如果濫用該技術所得之資訊,可導致對弱勢族群的迫害。 雖然目前美國僅有三個城市通過政府機關禁止使用人臉辨識技術的法令,但依照目前的發展狀態,其他的城市甚至州在未來也可能會跟進頒布禁令。