美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。
該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。
當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。
針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。
其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。
最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。
日本經濟產業省召集的「氫能、燃料電池戰略協議會」(水素・燃料電池戦略協議会)於2023年6月6日發布2023年版的「氫能基本戰略」(水素基本戦略),此為日本於2017年首次提出「氫能基本戰略」後,依據近年國際社會2050淨零碳排之宣示,以及烏俄戰爭造成的能源供應危機等情勢變化,再次提出的新版氫能國家型戰略。 本戰略以一個S、三個E作為其氫能發展基本原則,即安全性(Safety)、能源保全(Energy Security)、經濟效益(Economic Efficiency)、環境(Environment);在確保使用安全性的前提下,期望透過發展氫能,實現「氫能社會」理想,兼顧能源供給穩定與經濟成長,同時對環境有所貢獻。基此,本戰略提出擴大氫供給、創造氫需求、建構大規模供應鏈、發展地區性氫能利用、推動技術革新、國際合作、促進國民理解等七項推動方向。 為強化氫產業競爭力,本戰略從製造、運輸、使用等三個面向著手,首先,確立2030年水電解裝置達15GW之目標,支援生產設備設置;其次,建置輸送管路等基礎設施,以降低運輸成本,並確保足夠的氫運輸船以供海上運輸使用;最後,於技術方面,加速燃料電池車、燃氫,以及以氫作為原料之製鋼、化學品製造等技術發展。 針對氫能安全性,則計畫擬定「氫能安全戰略」(水素保安戦略),從「氫安全性相關科學資料取得及共享」、「統一技術標準」、「第三方認證及技術機構之設立」、「人才培育」等面向,全面檢視並調整與氫供應鏈相關的法規範,以確保整體安全性。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。
德國法院判決Google沒有進行事先審查網站內容之義務德國最高法院在2018年2月27日判決,Google在搜尋結果連結顯示之前,並無須確認該網站是否存在毀謗性言論,亦即,Google沒有義務事先審查搜尋結果中連結的內容。 此案件的背景是由兩個受到網路言論攻擊的人所提出,其主張為防止其他網路使用者攻擊他們言論的網站出現在Google搜尋結果的連結上,因此希望Google其中的一個部門—Alphabet公司,設置搜尋過濾器,就用戶曾經在網站上發表過不良評論以及損害賠償的相關資訊不會在未來的搜尋結果出現。 本案涉及關於「被遺忘權」(“Right To Be Forgotten”)的討論,所謂被遺忘權是由2014年5月,歐盟法院(ECJ)所作成之裁定,即人們可以要求Google和微軟Bing(MSFT.O)等搜尋引擎於搜尋人名出現的網頁結果中,刪除不適當或不相關的訊息。 本案中,對於Google沒有對搜尋結果進行過濾,Google是否因此有侵害被遺忘權之爭議,德國最高法院表示,搜尋引擎經營者僅須於收到明確且具識別性侵犯個人權利的通知時,採取相關行動即可,並毋須事先檢查該網站之內容是否合法。蓋立法者及社會皆普遍認為,若將搜尋引擎審查網站的內容定為其一般性義務,則其商業模式的本質將備受嚴重質疑,且又由於數據具有管理上的困難性,若無此類搜尋引擎的幫助,人們不可能在網路上獲得有實質有意義的使用,因此搜尋引擎不須將此列為其義務。
《加州隱私權法(California Privacy Rights Act, CPRA)》現在備受關注;CCPA修正案2020年11月3日,加州於其大選中以公投方式批准通過第24號提案(Proposition 24),該提案頒布《加州隱私權法》(California Privacy Rights Act,以下簡稱CPRA)。CPRA對加州消費者隱私保護法(California Consumer Privacy Act 2018,以下簡稱CCPA)所規定之隱私權進行重要修正,改變了加州的隱私權格局。 CPRA賦予加州消費者新的隱私權利,並對企業施加新的義務,例如消費者將有權限制其敏感性個人資料(例如財務資料、生物特徵資料、健康狀況、精確的地理位置、電子郵件或簡訊內容及種族等)之使用與揭露;消費者有權利要求企業更正不正確的個人資料;CPRA同時修改現有的CCPA的「拒絕販售權」,擴張為「拒絕販售或共享權」,消費者有權拒絕企業針對其於網際網路上之商業活動、應用或服務而獲得的個人資料所進行之特定廣告推播。CPRA亦要求企業對各類別之個人資料,按其蒐集、處理、利用之目的範圍及個人資料揭露目的,設定預期的保留期限標準。 CPRA另創設「加州隱私保護局」(California Privacy Protection Agency)為隱私權執行機構,該機構具有CPRA之調查、執行和法規制定權,改變了CCPA 係由加州檢察長(California Attorney General)負責調查與執行起訴的規定,並規定加州隱私保護局應於2021年7月1日之前成立。 CPRA將在2022年7月1日之前通過最終法規,且自2023年1月1日起生效,並適用於2022年1月1日起所蒐集之消費者資料,隨著CPRA的通過,預期可能促使其他州效仿加州制定更嚴格之隱私法,企業應持續關注有關CPRA之資訊,並迅速評估因應措施。