日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準

日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下:

1.訂定涵蓋《廣島AI進程》之政策框架(Framework)

2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle)

3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct)

為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下:

1.進行AI安全性評鑑之相關調查

2.研擬AI相關標準

3.研擬安全性評鑑標準與實施方式

4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI)

另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。

相關連結
※ 日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9157&no=64&tp=1 (最後瀏覽日:2026/04/17)
引註此篇文章
你可能還會想看
英國通訊管理局決定擴張防止「不正當銷售」(mis-selling)的規定

  鑑於頻寬市場以及電信市場的競爭愈趨炙熱,不肖資通訊業者對於弱勢消費者,透過詐騙或其他不適當銷售手法而獲利的案例也層出不窮。爰此,英國通訊管理局(Office of Communication/ Ofcom)在2007年2月8日,決定擴張防止固網電信業者對消費者「不正當銷售」(mis-selling)的規範內容(General Condition)。   「不正當銷售」指的是電信公司或其雇員,利用不受歡迎或者非法的銷售產品技巧所從事的相關市場活動。其中最嚴重的銷售方式,又以「砰一聲」(slamming)的銷售行為,最令人詬病。因為該銷售行為是在未經消費者明示同意、或者未使其獲得足夠知識與資訊下,逕自將提供的服務轉換到另一家公司。例如:轉換服務提供者,但並未通知你;通知轉換服務提供者,但未經你同意;所簽約的服務與提供的服務不盡相同;銷售人利用使你倍感壓力的方式來銷售服務等等,均屬誤賣行為。   此次的規則擴張,在規範對象上也會納入那些使用用戶迴路的服務提供者。Ofcom認為在日益激勵的市場競爭下,這些擴張規則有助於消費者權益,並能保護他們免受不適當的銷售活動干擾,更可確保消費者追求更好消費標的市場信心。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

行政院審查通過「食品衛生管理法」及「健康食品管理法」修正草案

  「食品衛生管理法」及「健康食品管理法」修正草案已於94年11月30日經行政院第2968次院會審查通過,將於近期進一步送立法院審議。未來只要有食品遭檢出含有害人體健康的物質,或標示不清,都一律得先下架禁賣並封存。而食品廣告誇大不實或宣稱具有療效部分,也在這次修法中加重其相關罰則。 本次修法重點為: 一、廣告管理:延長傳播業者保存委託刊播廣告者資料之期間,由原本2個月修正為6個月(食品衛生管理法修正條文第十九條、健康食品管理法修正條文第十五條)。 二、提高罰鍰額度: 1.加重宣稱療效健康食品業者之行政處分,提高其罰鍰額度,由原本6萬元以上30萬元以下,修正為20萬元以上100萬元以下,並規定一年內再違反者,得廢止其營業或工廠登記證照。(健康食品管理法修正條文第二十四條) 2.對於影響民眾飲食衛生安全較鉅之違法情節,提高罰鍰額度,將部分原本3萬元以上15萬元以下或4萬元以上20萬元以下,提高為6萬元以上30萬元以下(食品衛生管理法修正條文第三十一條及第三十三條)。 三、違規業者加重行政處分:違規標示產品 除應通知限期回收改正,進一步明定於改正前不得繼續販賣(食品衛生管理法修正條文第二十九條)。 四、擴大地方主管機關得命暫停作業並將物品封存之範疇(食品衛生管理法修正條文第二十四條)。

新加坡交易所發布(2013)智財揭露指引鼓勵上市企業揭露智財權利資訊

  新加坡政府於2013年3月完成10年期的IP Hub Master Plan,並點出三個戰略目標,以帶領新加坡成為亞洲的智財匯流中心。在其智財匯流中心(IP Hub)的政策規劃中,主要是希望成為全球: 1.智財交易及管理中心(A hub for IP transactions and management ) 2.優質智財申請中心(A hub for quality IP filings) 3.智財爭端解決中心(A hub for IP dispute resolution)。   針對「智財交易及管理中心」目標實施策略,考量若能鼓勵企業揭露重要的智慧財產權資訊,將有助於使投資人更瞭解公司的競爭優勢及發展潛力。亦即企業的智慧財產權資訊適時揭露,將能爭取到更多外部資金投入,降低募資之成本。   據此,新加坡交易所(Singapore Exchange,SGX)於同年4月1日發佈智財揭露指引鼓勵上市企業揭露智財權利資訊。其中,除涉及可能損及公司商業活動之營業秘密,或涉及專利權之申請等事項外,公司對於智慧財產權之揭露訊息原則包括以下: 1.說明或解釋智財權對於公司經營業務之價值所在 。 2.為確保非專業的投資者都能夠理解揭露資訊,用語不受行話以及技術語言之限制。 3.解釋有關的智財權於根本上影響到公司的經營業務,以及獲利能力和公司及其子公司之前景與整體影響。   實際上,香港交易所亦曾於2012年2月發佈「上市文件智慧財產權揭露規範」,希望申請上市的企業能加強在上市文件中的智慧財產權揭露。該規範與新加坡證交所之智財揭露指引之內容,並無二致,皆希望透過智財權資訊之揭露,以增加投資人之投資意願;亦即,揭露程度越高,公司募資成本越低。

TOP