日前報導指出,在美國有部分的企業在面試時要求應徵者交出其臉書(Facebook)帳號及密碼,以供企業做為評估是否錄取之參考。企業這樣的舉動,遭論者類比為要求應徵者交出自家大門的鑰匙。據悉,企業此一傾向在九一一後有明顯增加之趨勢。
為因應此一趨勢所帶來的隱私疑慮,馬里蘭州在四月初已立法(撰稿時,此法尚待該州州長簽署)禁止雇主要求瀏覽或進入員工與應徵者的臉書或其他社交網站頁面,當然也包括禁止雇主取得員工或應徵者的臉書或社交網站帳號與密碼,或企圖成為員工及應徵者的「朋友」。
馬里蘭州此一立法,除了在保護員工或求職者的隱私之外,也是為了保障言論自由;且此一看似亦在保護應徵者及員工之法律,其實對企業亦有助益:其使原本處於法律灰色地帶的爭議問題明朗化,因而可使企業瞭解應如何因應,而可避免許多不必要的訴訟。
雖然輿論對此立法有許多贊同之聲,但亦不乏反對此一立法者,例如馬里蘭州的許多商業團體即認為瞭解求職者的社交活動,對於剔除不適任的應徵者,有其必要。
馬里蘭州此一立法乃率全美之先,其他各州可能亦陸續會提出類似法案。
歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。 指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。 指引的主要內容包括: 個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。 禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。 GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。 工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。 對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。 「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。 工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。 在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。
美國尋求ITC調查營業秘密盜用案件逐年增加近年來透過美國國際貿易委員會(International Trade Commission,簡稱ITC)調查營業秘密盜用的案件逐年增加,從2018 年僅有2件到2021年已增加至9件,此現象可能與疫情期間大量員工離職流動有關,預期2022年會有更多員工流動的情況,也將使企業面臨更大的營業秘密盜用風險。 雖然過往熟知ITC是專利糾紛的戰場,但ITC對於構成營業秘密盜用的「不公平行為」也有管轄權。尋求ITC營業秘密盜用調查和傳統聯邦或州法院訴訟相比的好處包括:(1) ITC可管轄在發生在美國以外的營業秘密盜用行為、(2) ITC調查時間短,平均在15-18個月會做出處置、(3) 向ITC尋求救濟時間未有限制,聯邦或州法院則會要求在發現或應該發現營業秘密盜用行為起3-5年內應提出。 若ITC對於營業秘密盜用調查成立,請求人可取得排除令(exclusion order)禁止因盜用營業秘密產生的商品進入美國,也可取得制止令(cease-and-desist order)停止已在美國的被訴產品銷售。雖然ITC不能提供金錢賠償,但企業可同時向聯邦或州法院提出訴訟請求金錢賠償,且與專利案件不同,ITC關於營業秘密調查的勝利對於尋求金錢賠償的地方法院訴訟具有排他性影響(preclusive effect)。 因此,當面臨營業秘密盜用者不在美國或需要在短時間取得調查結果的情況,尋求ITC營業秘密盜用調查對企業會是有利的做法。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」