日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準

日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下:

1.訂定涵蓋《廣島AI進程》之政策框架(Framework)

2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle)

3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct)

為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下:

1.進行AI安全性評鑑之相關調查

2.研擬AI相關標準

3.研擬安全性評鑑標準與實施方式

4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI)

另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。

相關連結
※ 日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9157&no=64&tp=1 (最後瀏覽日:2026/02/04)
引註此篇文章
你可能還會想看
美國聯邦法院裁定執法部門無搜索令要求提供手機位置記錄並未違憲

  美國聯邦第六巡迴上訴法院於2016年4月13日就U.S. v. Timothy Ivory Carpenter & Timothy Michael Sanders案作出判決,裁定執法機關在未取得搜索令的情況下要求出示或取得手機位置記錄,並不違反憲法增修條文第4條。美國憲法增修條文第4條規定:「人人具有保障人身、住所、文件及財物的安全,不受無理之搜索和拘捕的權利;此項權利,不得侵犯;除非有可成立的理由,加上宣誓或誓願保證,並具體指明必須搜索的地點,必須拘捕的人,或必須扣押的物品,否則一概不得頒發搜索令。」   本案事實係聯邦調查局取得兩名涉及多起搶劫案之嫌疑人的手機位置,而根據手機位置之相關資料顯示,於相關搶案發生之時間前後,該二名嫌疑人均位於事發地半英哩至兩英哩的範圍內,故該二名嫌疑人隨後被控多項罪名。在肯認與個人通訊相關之隱私法益的重要性的同時,聯邦第六巡迴上訴法院認為,「縱使個人通訊之內容落於私領域,但是為了將該些通訊內容自A地至B地所必須之資訊,則非屬私領域之範疇。」聯邦第六巡迴上訴法院拒絕將憲法增修條文第4條的保護延伸至像是個人通訊或IP位址等之後設資料(metadata),其原因在於,蒐集此等資訊或記錄並不會揭露通訊的內容,因此本案之嫌疑人就聯邦調查局所取得之資訊並無隱私權之期待。法院認定,此等行為不同於自智慧型手機取得資訊,因為後者「通常而言儲存了大量有關於特定使用人之資訊。」   2015年11月9日,美國聯邦最高法院拒絕審理Davis v. United States案,該案係爭執搜索令於執法部門要求近用手機位置資料時之必要性。加州州長Jerry Brown於2015年10月亦簽署加州電子通訊法(California Electronic Communications Act, CECA),該法禁止任何州政府的執法機關或其他調查單位,在未出示搜索令的情況下,要求個人或公司提供具敏感性之後設資料。

新加坡智慧財產局發布2023年智財調查,分析企業無形資產運用現況

新加坡智慧財產局(Intellectual Property Office of Singapore, IPOS)於2023年9月4日發布《2023年智慧財產調查》(Singapore IP Survey 2023),調查結果顯示,企業最重視的智慧財產為品牌、技術/製程、機密資訊。 為瞭解企業對無形資產(Intangible Assets, 以下簡稱IA)和智慧財產權(Intellectual Property, 以下簡稱IP)的看法和運用現況,以制定強化企業競爭力之智財政策,新加坡政府自2021年發布《2030年智慧財產戰略》(Singapore IP Strategy 2030, SIPS 2030)起,每2年發布一次智財調查。本次調查於2023年2月至3月間進行,對象為新加坡500多家企業,調查結果顯示,企業最重視的前三種IP類型依序為: 1. 有35%的企業表示擁有強大品牌(strong brand)相當重要。 2. 有32%的企業認為擁有新技術及/或新製程(new technology and/or process)相當重要。 3. 有31%的企業認為擁有機密資訊(confidential information)相當重要。 此外,有15%的企業表示,其商業價值的主要收益來自於其IA/IP;且所有受訪企業中有不少企業表示IA/IP有助於提升公司績效,包含: 1. 有17%的企業認為有助於「吸引更多商業合作夥伴」; 2. 有17%的企業認為有助於「提升商業競爭力」; 3. 有15%的企業認為有助於「拓展國際市場」; 4. 有14%的企業認為有助於「增加獲利」。 再者,有80%的企業期待有更多機會運用IA/IP獲得融資。同時,有92%企業在進行相關智財活動(IP activities)時未申請任何政府補助,如新加坡企業發展局(Enterprise Singapore, ESG)的企業發展補助(Enterprise Development Grant, EDG),其中有50%以上的企業表示是因為不清楚相關補助資訊。 最後,僅有15%的企業對其IA/IP進行單獨評價(standalone valuation),而未與其他資產合併評價,但其中僅不到一半是委託評價分析師(Certified Valuation Analyst, CVA)進行。 根據調查結果,新加坡政府認為企業雖擁有大量的IA/IP,但尚未瞭解其價值,導致無法有效地將其IA/IP商業化。因此,新加坡政府於2023年9月4日同時發布《無形資產揭露框架》(Intangibles Disclosure Framework, IDF),鼓勵企業以系統化方式主動對外揭露所持有之IA/IP,藉此協助企業創造更高的價值。我國資策會科法所亦從2013年開始,每2年針對國內上市上櫃公司調查智財管理需求及現況;2021年調查報告顯示,86%的企業已進行智財布局、84%企業有配置智財人員、94%企業有編列智財經費等,顯示我國企業對於智財管理及策略愈來愈重視。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

歐盟執委會推遲個人資料保護指令修正計畫

  歐盟執委會主席Barroso在今年年初設立了負責「正義、基本權與公民」(Justice Fundamental Right and Citizenship)事務的新任務單位。而負責此單位的執委會委員Reding自年初以來已多次宣示對個人資料保護以及隱私權的重視。在今年三月份的演講中,Reding更宣布將在年底前提出修正歐盟個人資料保護指令的內容。惟此承諾在歐盟會員國的壓力下恐怕無法踐履了。歐盟執委會於日前已表示將提出一份新的行動宣示來取代原先的修法計畫。   歐盟目前的個人資料保護指令乃在1995年制定,迄今已有15年之久,雖然其許多原則在今日仍然適用,但面對新科技、新應用,如社交網站、雲端應用等的發展,該指令仍不免顯出不足之處。此外,在原先的架構下,執委會也無法介入所謂歐盟「第三支柱」下的事務(亦即與犯罪相關的警政、司法合作事務),但此狀況在里斯本條約通過後理應有所改變。以上兩點也正是Reding提議修正個人資料保護指令的理由。但由於部分歐盟會員國政府認為Reding所提有窒礙難行之處,例如法國即直言Reding的修法時程不切實際,執委會及Reding也因此放棄原先規劃。至於新的行動宣示到底會不會真的納入歐盟個人資料保護指令的修正計畫,其時程與內容如何,值得持續注意。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP