智慧聯網之發展與個人資訊隱私保護課題:以歐盟之因應為例

刊登期別
第23卷,第11期,2011年11月
 

※ 智慧聯網之發展與個人資訊隱私保護課題:以歐盟之因應為例, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6028&no=65&tp=1 (最後瀏覽日:2024/11/01)
引註此篇文章
你可能還會想看
論析各國之企業智慧資產揭露機制

Angie's List起訴Amazon Local侵害營業秘密

  消費者評論服務Angie's List於本月在印第安納州提起一項聯邦訴訟,對象是Amazon Local。Angie's List作為當地交易網站,提供高達75%的本地服務,包括產品和使用經驗。但Amazon Local員工卻通過註冊成為Angie's List的會員,以獲得其他會員名單和下載網站所提供的文件,也包括其他會員的評論和相關資訊。因此20餘名Amazon Local員工被列為共同被告。   該訴訟聲明中指控相關資訊被Amazon Local所使用,用以在西雅圖建立一個競爭性的服務。Angie's List在訴訟中指稱,他在會員協議“明確禁止使用Angie's List的帳戶和資料用於商業目的”,但Amazon Local員工卻違反了契約。“Amazon Local沒有投入必要的時間,資源和合法手段發展自己的研究與Angie's List競爭,相反的,Angie's List和它的員工都選擇了秘密訪問和挪用Angie's List專有信息的快捷方式。   Angie's List指控Amazon Local違反商業機密,竊盜,侵入電腦,民事侵權,電腦欺詐與濫用盜用行為和違反契約。Angie's List請求法院判決Amazon Local賠償其損失,並禁止Amazon Local再使用Angie's List,包括已經得到的資訊。Angie's List也請求未規定的損害賠償,“不當得利”和懲罰性的和其他損害。

日本監理沙盒制度推動趨勢—簡介生產性向上特別措施法草案與產業競爭力強化法修法內容

  我國自2017年12月通過《金融科技發展與創新實驗條例》建立金融監理沙盒制度後,各界時有呼籲其他非金融領域亦有沙盒制度之需要。觀察國際上目前於金融產業以外採取類似沙盒制度之國家,當以日本為代表,且日本相關制度亦為我國《中小企業發展條例》修法時之參考對象。   本文針對日本近期提出之《生產性向上特別措施法》(草案)以及日本《產業競爭力強化法》新近之修法等兩項日本近來有關沙盒制度之修法為觀察對象,針對其整體立(修)法背景、《產業競爭力強化法》中灰色地帶解消制度及企業實證特例制度修正重點以及《生產性向上特別措施法》(草案)中「專案型沙盒」之制度內涵進行整理,並比較企業實證特例制度及專案刑沙盒兩者制度上之異同。   本文最後發現,日本之沙盒制度設計上確實符合其減少事前管制、強調事後確認與評估、建立風險控管制度、課與主管機關提供資訊與建議之義務以及強化業者與主管機關聯繫等目標。同時,本文認為日本沙盒制度中有兩項制度特色值得我國關注及參考。第一,日本成立了包含外部專家的「評價委員會」,協助政府單位了解創新事業之內容及法規制度之觀察。第二,日本未來將提高實證制度之協調層級,在日本內閣府下設立單一窗口協助申請者決定其可適用之實證制度。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

TOP