美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。
該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。
當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。
針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。
其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。
最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。
幹細胞研究成果被認為將會是未來的醫療主流之一,不過由於這項研究牽涉到敏感的道德與宗教議題,政府對此一研究究竟要採何種立場,在西方國家一直爭論不斷,故最終得以立法方式獲得共識並表明政府政策態度的國家,仍為少數。即使先進如澳洲,亦遲至2002才通過第一套相關的法律-禁止人類複製法(The Prohibition of Human Cloning Act)與人類胚胎研究法(Research Involving Human Embryos Act)。 人類胚胎研究法建立了一套核准體系,對使用人工生殖技術之剩餘胚進行研究者,由國家健康及醫學研究委員會下之胚胎研究核准委員會(The Embryo Research Licensing Committee of the National Health and Medical Research Council)核發許可;該法雖允許使用人工授精的剩餘胚進行幹細胞研究,但並未特別就治療性複製部分予以規範。澳洲政府目前是以行政命令的方式,禁止醫療性複製的研究,此一禁令於2005年4月再度被延長5年。 澳洲眾議院(The House of Representatives)最近以82比62的投票比,表決通過「人類生殖性複製禁止與人類胚胎研究管理修正案」(Prohibition of Human Cloning for Reproduction and the Regulation of Human Embryo Research Amendment Bill 2006),廢止先前的禁令,開放基於醫療目的得製造胚胎進行幹細胞研究,同時明訂所製造的胚胎不得殖入於子宮內,並應在十四天內銷毀,違反本法規定者,最高可處以十五年之有期徒刑。根據規劃,本法將在相關主管機關制訂完成有關卵子捐贈及研究許可申請之相關作業細節規定後之六個月實施。
歐盟個人資料保護委員會提出關於資料主體接近使用其個人資料權利之指引歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)第15條為「資料主體之接近使用權(Right of access)」,其第1項規定「資料主體有權向控管者確認其個人資料是否正被處理」,資料主體並得知悉其個資處理之目的、所涉及之類型等事項。該條係為使資料主體在獲得充分、透明且容易接近之資訊,使其得更輕易的行使如資料刪除或更正等權利。 因條文在文字上具抽象性,就具體內涵仍須有一定基準,故歐盟個人資料保護委員會(European Data Protection Board, EDPB)於2022年1月18日,針對GDPR中之接近使用權提出指引(Guidelines 01/2022 on data subject rights - Right of access),闡明在不同的情況中,資料主體應如何向資料控管者(Data Controller)主張接近使用權,並且說明資料控管者針對此項權利之義務內涵。 就具體內容,該指引包含:接近使用權之範圍、資料控管者應向資料主體提供之資訊內容、資料主體請求資訊之格式、資料控管者應如何提供資訊、GDPR第12條第5項所稱「資料主體之請求明顯無理由或過度者」之概念為何。指引並製作流程圖,以便利資料主體輕易的了解向資料控管者主張權利之步驟。 而對於資料控管者,指引亦說明其應如何解釋與評估資料主體之請求、應如何回覆特定請求、限制接近使用權之例子。該指引旨在從各方面分析接近使用權,經由舉例與設想特殊情形,以求為該權利提供更精確之指導。
日研擬對策防農產智財權被外國盜用日本本土所栽培且有登記證照的農作物種子被拿到中國、南韓等地的案例日增,日本政府除了將提高取得品種證照者的收入之外,在六月即將完成的「智慧財產權二00六」報告中,日本政府也將擬定品種保護制度,明示未來在農業領域應該如何因應日本本土研發、栽培的農作物品種,被擅自拿到海外利用。 蔬果等種子很容易被攜帶到海外,通常在外國都遭違法大量栽培,然後再回銷日本,尤其近年來這種例子激增,迫使日本政府不得不思考對策。日本政府打算針對開發植物新品種的人或團體,根據現行的種苗法給予「育種家權利」。日本農林水產省並呼籲中、韓等亞洲國家,應該趕緊制訂完備的法令,禁止日本開發的品種未經許可被擅自生產、販售。
英國上議院人工智慧專責委員會提出AI應用影響報告並提出未來政策建議英國上議院人工智慧專責委員會(Select Committee on Artificial Intelligence)2018年4月18日公開「AI在英國:準備、意願與可能性?(AI in the UK: ready, willing and able?)」報告,針對AI可能產生的影響與議題提出政策建議。 委員會建議為避免AI的系統與應用上出現偏頗,應注重大量資訊蒐集之方式;無論是企業或學術界,皆應於人民隱私獲得保障之情況下方有合理近用數據資訊的權利。因此為建立保護框架與相關機制,其呼籲政府應主動檢視潛在英國中大型科技公司壟斷數據之可能性;為使AI的發展具有可理解性和避免產生偏見,政府應提供誘因發展審查AI領域中資訊應用之方法,並鼓勵增加AI人才訓練與招募的多元性。 再者,為促進AI應用之意識與了解,委員會建議產業應建立機制,知會消費者其應用AI做出敏感決策的時機。為因應AI對就業市場之衝擊,建議利用如國家再訓練方案發展再訓練之計畫,並於早期教育中即加入AI教育;並促進公部門AI之發展與布建,特別於健康照顧應用層面。另外,針對AI失靈可能性,應釐清目前法律領域是否足以因應其失靈所造成之損害,並應提供資金進行更進一步之研究,特別於網路安全風險之面向。 本報告並期待建立AI共通之倫理原則,為未來AI相關管制奠定初步基礎與框架。