經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段:
1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。
2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。
3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。
4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。
一名南韓金姓男子以「LOUIS VUITON DAK」為名開設炸雞店,於2015年9月遭法國精品品牌Louis Vuitton Malletier(以下簡稱LV)提起商標侵權訴訟,法院判決金姓男子應停止使用與LV近似的商標和圖騰。近日(2016年4月)法院認為金姓男子未遵從禁令,仍持續使用與LV商標近似的店名,判決金姓男子賠償1450萬韓元(約41萬元台幣)。 金姓男子以韓文全雞「tongdak」的諧音,將炸雞店命名為「LOUIS VUITON DAK」,並於炸雞外帶餐盒及紙巾上,印製使用與LV商標圖騰極為相似的圖案。此舉引來LV的不滿,於2015年9月向南韓法院提起訴訟,認為金姓男子使用LV的近似名稱販賣炸雞,將對LV的品牌形象帶來嚴重損害。2015年10月,法院要求金姓男子立即停止使用近似LV的商標圖騰及店名,否則將處以一日50萬韓元的罰款。金姓男子後將店名改為「chaLouisvui tondak」,然而LV仍認為該店名與其商標有部分雷同。法院同意LV的主張,認為金姓男子雖更改了店名拼法,但其讀音仍與「LOUIS VUITON DAK」幾乎相同,因此以一日50萬韓元的罰款金額,計算使用新店名的29日,判決金姓男子須向LV賠償1450萬韓元。 【本文同步刊登於TIPS網站(http://www.tips.org.tw)】
德國與愛爾蘭對於個人資料處理是否須明示同意之見解不同德國與愛爾蘭資料保護局對於資料保護指令所規定個人資料(以下簡稱個資)的處理(process),是否須取得資料當事人明示同意,表示不同的見解。德國資料保護局認為臉書網站所提供之人臉辨識(預設加入)選擇退出(opt out consent)的設定,並不符合資料保護指令(Data Protection Directive)對於同意(consent)的規範,且有違資訊自主權(self-determination);然而,愛爾蘭資料保護局則認為選擇退出的機制並未牴觸資料保護指令。 德國資料保護局委員Johannes Caspar教授表示,預設同意蒐集、使用與揭露,再讓資料當事人可選擇取消預設的作法,其實已經違反資訊自主權(self-determination)。並主張當以當事人同意作為個人資料處理之法律依據時,必須取得資料當事人對其個資處理(processing)之明示同意(explicit consent)。對於部長理事會(Council of Ministers)認同倘資料當事人未表達歧見(unambiguous),則企業或組織即可處理其個人資料的見解,Caspar教授亦無法予以苟同。他認為部長理事會的建議,不但與目前正在修訂的歐盟資料保護規則草案不符,更是有違現行個資保護指令的規定。 有學者認為「同意」一詞雖然不是非常抽象的法律概念,但也不是絕對客觀的概念,尤其是將「同意」單獨分開來看的時候,結果可能不太一樣;對於「同意」的理解,可能受到其他因素,特別文化和社會整體,的影響,上述德國和愛爾蘭資料保護局之意見分歧即為最好案例。 對於同意(consent)的落實是否總是須由資料當事人之明示同意,為近來資料保護規則草案(The Proposed EU General Data Protection Regulation)增修時受熱烈討論的核心議題。資料保護規則草案即將成為歐盟會員國一致適用的規則,應減少分歧,然而對於企業來說,仍需要正視即將實施的規則有解釋不一致的情況,這也是目前討論資料保護規則草案時所面臨的難題之一。
何謂「企業實證特例制度」?企業實證特例制度規定於日本產業競爭力強化法第8條、第10條、第14條及第15條,在企業或任何事業團體有進行新事業活動(引進新商品或服務之開發或生產、新商品或服務之導入)之需要時,若現行法規上有滯礙難行之處,則可提出創設新規制措施之申請,藉以排除某些法令之限制,使新事業活動得以進行。 企業實證特例制度分為兩階段,首先由欲實施新事業活動者向事業主管機關提出申請,而事業主管機關將會與法規主管機關討論後,在安全性得到確保之情形下,由事業主管機關同意創設新規制措施。第二階段則需提出新事業活動計畫申請核准,經核准後便得在一定期間內於一定地區進行新事業活動。 新事業活動計畫備核准後,事業團體得進行新事業之活動,其需於各事業年度終了後3個月內向事業主管機關提出報告,就新事業活動之進行情形(包含新事業活動目標達成程度、新特例措施施形狀況、法規所要求之安全性目的之確保措施…等事項)為報告。法規主管機關亦會綜合新事業活動之施形狀況、國外相關法制情形以及技術進步等等情形,決定是否進行修法。
日本IPA/SEC公佈「IoT高信賴化機能編」指導手冊日本獨立行政法人情報處理推進機構(IPA/SEC)於2016年3月公佈「聯繫世界之開發指引」,並於2017年5月8日推出「IoT高信賴化機能編」指導手冊,具體描述上開指引中有關技術面之部份,並羅列開發IoT機器、系統時所需之安全元件與機能。該手冊分為兩大部份,第一部份為開發安全的IoT機器和關聯系統所應具備之安全元件與機能,除定義何謂「IoT高信賴化機能」外,亦從維修、運用角度出發,整理開發者在設計階段須考慮之系統元件,並依照開始、預防、檢查、回復、結束等五大項目進行分類。第二部份則列出五個在IoT領域進行系統連接之案例,如車輛和住宅IoT系統的連接、住家內IoT機器之連接、產業用機器人與電力管理系統之連接等,並介紹案例中可能產生的風險,以及對應該風險之機能。IPA/SEC希望上開指引能夠作為日後國際間制定IoT國際標準的參考資料。