經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段:
1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。
2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。
3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。
4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。
英格蘭與威爾斯法律委員會(The Law Commission of England and Wales)與蘇格蘭法律委員會(The Scottish Law Commission)於2022年1月26日聯合提出¬「自駕車修法建議報告(Automated Vehicles: joint report)」,總結其自2018年來三次公眾意見諮詢之回應分析,提出75項法律修正建議,提交英格蘭及蘇格蘭議會決議是否採納並修法。 修法建議範圍涵蓋廣泛,重要突破性建議包含: (1)整合英國原有之《2018自動與電動車法(Automated and Electric Vehicles Act 2018)》中自駕車之認定標準,訂定一套雙階段自動駕駛認證許可制度,於第一階段審驗「整車」之規格是否符合國際或國內車輛型式安全審驗標準,並於第二階段審驗¬¬¬「個別自駕功能」是否能符合國內交通法規。 (2)提出「主責使用者(User-In-Charge, UIC)」概念,若車輛設計為在某些情形下需要人工接手駕駛,則自動駕駛系統(Automated Driving System, ADS)啟動時,坐在車內駕駛座之自然人即為UIC。 (3)對於不需要UIC車輛(No User-In-Charge, NUIC)營運平台業者,以及合法自駕車業者(Authorized Self-Driving Entities, ASDE),提出資格條件要求,包含必須具備良好名聲、財務穩健,必須向主管機關提交安全案例(safety cases)等。 (4)因《2018自動與電動車法》中已有要求自駕車均須投保保險,因此當自駕車造成車禍及損傷,不需先經確認有無人為故意過失,即可先行以保險進行賠償。事後若保險公司認為自駕車設計製造者有責任,得再依商品責任規範轉向車廠求償。 (5)而為了幫助事故調查、釐清責任,自駕車相關資料之持有者(如ASDE)應將相關資料保存3年又3個月,以配合侵權行為之法律請求權時效。 本分報告綜合各方意見,以務實之態度提出具體修法建議,深具參考價值,值得我國深入研析。
美國政府強化推動「更佳建築倡議」計畫美國總統歐巴馬於2011年2月3日,根據美國振興方案(Recovery Act)預算案,宣布推動「更佳建築倡議」(Better Buildings Initiative)計畫,這個倡議計畫承諾透過一系列的獎勵,促進私人企業在建築節能改善上進行投資,並以到2020年要讓商業建築的能源效率提高20%做為目標。 在今年的6月19日,美國能源部與商業部共同宣布選定三個「卓越建築營運中心」(Centers for Building Operations Excellence),由美國能源部和商務部國家標準與技術研究院的製造業擴展夥伴關係(National Institute of Standards and Technologies’ Manufacturing Extension Partnership,NIST MEP)聯合資助130萬美元成立此三個中心,乃為推動「更佳建築倡議」計畫的相關行動之一,希望藉由三個中心的運作,來達成提高能源效率20%,並且期望一年可以減少約400億美元的能源支出。 「卓越建築營運中心」將會與各大學、地方社區、技術學院、貿易協會,以及能源部的國家實驗室合作,建立培訓計劃,提供商業建築專業人士所需要的關鍵技能,以提升建築效率,同時降低了能源的浪費和節省資金。 此三個中心分別位於加州、賓州以及紐約州,提供機會讓當前和未來有可能參與潔淨能源經濟的人,學習寶貴的技能,並且著重在於開發課程以及試點培訓方案,以培育優良的建築的經營者、管理者與能源服務供應商,進行商業、工業與教育建築物上的調整與能源管理。
蘋果電腦扼殺了Android平台的多點觸控功能眾所矚目的Google phone終於上市了,然而,讓許多人好奇的是,為什麼Google phone所搭載的Android平台不支援多點觸控(multitouch)? 現在,我們終於知道Google略過多點觸控功能的可能原因了。 根據Android團隊成員的說法,以多點觸控聞名的iPhone的製造者蘋果電腦要求Google不得導入此應用,而Google答應了。該團隊成員進一步表示,Google的決定讓他們鬆了一口氣。在此之前,Palm因為宣布將在新的Pre phone中採用多點觸控技術而面臨蘋果電腦空前的官司壓力。即使蘋果電腦最後決定不對Palm採取法律行動,這兩家公司之間的關係也很難好轉。顯然,Google不想破壞與蘋果電腦的關係 。 蘋果電腦上個月剛取得一個名稱為「觸控螢幕裝置、方法以及應用啟發式原理來確認使用者指令的圖形化使用者介面」的專利,其專利號為7,479,949。此專利在2008年04月11日提出申請,其內容涵蓋了應用在iPhone上的多點觸控功能以及在iPhone上所使用的指令手勢。 在獲得該專利權的隔天,蘋果電腦營運長Tim Cook公開警告iPhone的競爭對手「我們不會放任蘋果的智慧財產權被剽竊,且絕對會拿出所有可動用的武器作反擊」。
演算法歧視將適用於《紐澤西州反歧視法》2025年1月9日美國紐澤西州檢查總長與民權部(Division of Civil Rights, DCR)聯合發布「演算法歧視指引」(Guidance on Algorithmic Discrimination and the New Jersey Law Against Discrimination),指出《紐澤西州反歧視法》(the New Jersey Law Against Discrimination, LAD)亦適用於基於演算法所衍生的歧視。 隨著AI技術日趨成熟,社會各領域已大量導入自動化決策工具,雖然它們能提高決策效率但也增加了歧視發生之風險。指引的目的在於闡述自動化決策工具在AI設計、訓練或部署階段可能潛藏的歧視風險,亦列舉出在各類商業實務情境中常見的自動化決策工具,並說明它們可能會如何產生演算法歧視。以下分別說明《紐澤西州反歧視法》適用範圍,以及與演算法歧視有關的行為樣態。 一、《紐澤西州反歧視法》之適用主體及適用客體 《紐澤西州反歧視法》禁止在就業、住房及公共場所等領域所發生的一切歧視行為,其適用主體相當廣泛,包含但不限於下列對象:雇主、勞工組織、就業仲介機構、房東、房地產經紀人、公共場所之經營或管理者、以及任何教唆或協助歧視行為之個人;而該法之適用客體亦有明確定義,為具有受保護特徵(如性別、族裔、身心障礙等)之自然人或法人。 此外指引特別說明,即便適用主體無意歧視、或其所使用之自動化決策工具係由第三方所開發,只要發生歧視行為依然違反《紐澤西州反歧視法》。這是因為《紐澤西州反歧視法》係針對歧視所帶來的影響進行規範,儘管無意歧視,其所帶來的影響並不一定比故意歧視還要輕微。 二、 歧視行為的三種樣態 1.差別待遇歧視 差別待遇歧視係指適用主體基於受保護特徵而對適用客體施予不同對待。舉例而言,若房東使用自動化決策工具來評估黑人潛在租戶,但不評估其他族裔的潛在租戶,則會因為其選擇性使用自動化決策工具而構成歧視。 2.差別影響歧視 差別影響歧視係指適用主體的政策或行為對適用客體造成不成比例的負面影響,且該政策或行為未能證明具有正當性、非歧視性、或不存在較少歧視性的替代方案,則該政策或行為構成歧視。例如,某商店利用臉部辨識技術來偵測過去曾有偷竊紀錄的顧客,但該系統對配戴宗教頭巾的顧客較容易產生誤判,此亦可能構成歧視。 3.未提供合理調整 合理調整係指身心障礙者、宗教信仰者、懷孕者以及哺乳者,在不會對適用主體造成過度負擔的前提下,得向其提出合理請求,以符合自身的特殊需求。以身心障礙員工為例,若雇主使用了自動化決策工具來評估員工的工作表現(例如監測員工的休息時間是否過長),在未考量合理調整的情況下,該工具可能會過度針對身心障礙員工進而構成歧視。 為減少演算法歧視發生頻率,「演算法歧視指引」特別闡述自動化決策工具可能會出現的歧視行為及歧視樣態。此份指引的另一個意義在於,縱使目前紐澤西州並沒有一部監管AI的專法,但仍可以利用現行的法律去處理AI帶來的種種問題,以利在既有的法律架構內擴充法律的解釋來回應新科技的挑戰,並達到實質管制AI的效果。