英國上議院人工智慧專責委員會(Select Committee on Artificial Intelligence)2018年4月18日公開「AI在英國:準備、意願與可能性?(AI in the UK: ready, willing and able?)」報告,針對AI可能產生的影響與議題提出政策建議。
委員會建議為避免AI的系統與應用上出現偏頗,應注重大量資訊蒐集之方式;無論是企業或學術界,皆應於人民隱私獲得保障之情況下方有合理近用數據資訊的權利。因此為建立保護框架與相關機制,其呼籲政府應主動檢視潛在英國中大型科技公司壟斷數據之可能性;為使AI的發展具有可理解性和避免產生偏見,政府應提供誘因發展審查AI領域中資訊應用之方法,並鼓勵增加AI人才訓練與招募的多元性。
再者,為促進AI應用之意識與了解,委員會建議產業應建立機制,知會消費者其應用AI做出敏感決策的時機。為因應AI對就業市場之衝擊,建議利用如國家再訓練方案發展再訓練之計畫,並於早期教育中即加入AI教育;並促進公部門AI之發展與布建,特別於健康照顧應用層面。另外,針對AI失靈可能性,應釐清目前法律領域是否足以因應其失靈所造成之損害,並應提供資金進行更進一步之研究,特別於網路安全風險之面向。
本報告並期待建立AI共通之倫理原則,為未來AI相關管制奠定初步基礎與框架。
本文為「經濟部產業技術司科技專案成果」
.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 在2024年11月11日至22日舉辦第29屆聯合國氣候變化大會(COP29)上,國際標準化組織(ISO)發佈全球第一部ESG國際標準:ISO ESG IWA 48《實施環境、社會和治理(ESG)原則框架》(Framework for implementing environmental, social and governance (ESG) principles)(簡稱為IWA 48:2024),為全球各地區、不同規模的企業提供統一管理標準,同時提供實施指引和行動範例,應對永續發展挑戰。 IWA 48有以下幾大重點: 1. ESG原則和實踐(Principles and practices in ESG):強調誠信、成效、公平、風險與機會、證據、持續改善等原則。 1.1風險與機會:風險跟機會應由高階管理階層從組織整體評估,因風險可能同時伴隨機會;同時,管理層面要運用科學方法及可靠數據紀錄,評估與建立行動方案與追蹤管控。 1.2負責及公開透明:在ESG原則為關鍵要素,清楚揭露經營績效和永續資訊,不僅可增強利害關係人信心,也有助於保護組織商譽。 1.3利害關係人參與:組織應重視內、外部利害關係人的意見,如員工、股東、客戶、供應商等;舉例來說,組織落實資訊公開,並藉由問卷或會議形式,請利害關係人回饋期望或意見。 1.4重大主題:組織評估內外部之營運狀況所可能遭遇挑戰,且考量利害關係人回饋、產業特性,進而辨識各項議題之衝擊程度與關聯性,及排定優先順序來制訂行動方案。 1.5關鍵績效指標(KPI)評估:針對各項重大主題依可靠數據紀錄,進而運用量化或質化手段,設定短期、中期和長期之具體目標。 2. 環境(Environmental):評估組織營運活動與環境變化之相互關係,因此須要根據科學方法建立基準與制訂目標,確保營運過程能有效執行策略。 3. 社會(Social):主要關注組織如何承擔社會責任,推動具有社會價值行為和政策,除遵循當地勞動法令外,可額外提供福利或照顧措施,如組織接納各國人民,公平方式進行面試,培訓應保障不會發生任何歧視情事。 4. 治理(Governance):董事會或管理階層要明確公告組織永續政策與要求,並建立道德規範,如誠信經營,法令遵循、風險管理等,尤其鑑別永續相關風險,如當地法令異動、環境變化,更要與利害關係人保持溝通與合作,進而評估組織政策與執行方向,再依據營運需求調整。 5. 合規性和一致性(Compliance and conformity):組織可採用第三方查(驗)證方式,協助組織評估有無符合當地法令、達到ESG要求標準,及組織對於ESG之承諾。 6. 報告(Reporting):組織可公開揭露永續資訊,如永續報告書或年報等;再者,組織應確保揭露內容之準確、清楚與可靠,並正面及負面資訊均清楚完整揭露,以讓利害關係人了解狀況與趨勢。 7. 持續改善(Continual improvement):透過關鍵績效指標(KPI)檢核,定期確認組織達成永續目標狀況,如有未達預期情事者,應落實根因分析、制訂矯正預防措施,並予以揭露與執行改善,以確保能達到長期目標。
美國普及服務再革新—由醫療照護服務主導的寬頻佈建計畫從2006年開始,FCC所推出的「偏遠地區醫療照護領航計畫」 (Rural Health Care Pilot Programs),扶植其國內50個不同的醫療照護寬頻網路。此計畫不僅強化了美國對於遠距醫療照護技術的需求,更被寄望發展成為一高效能之寬頻服務。而計畫中「聯盟」 (consortium-focused)的概念,更促進了城鄉醫療團隊的合作(rural-urban collaboration)。除了減低申請普及服務補助時所需花費之行政成本外,更提升了醫療業者購買所需頻寬時的議價地位。 不過美國政府並不以此為滿足,為進一步改善整體計畫的實施效益, FCC於2012年12月再次針對醫療照護普及服務進行新階段的革新,並提出「醫療照護網路基金」 (Healthcare Connect Fund),以取代原有之領航計畫(Pilot Program)。「醫療照護網路基金」規劃的目的,在於提供計畫參與者更多的彈性,以規劃其本身的網路。業者可透過購買所需之寬頻服務、自行佈建寬頻基礎建設或混合上述兩種方式,取得所需之頻寬。不過FCC亦訂定資格限制以及審查機制。目前僅有具備一定經濟規模的醫療聯盟,可自行佈建寬頻基礎建設,獨立醫療業者並不具佈建之資格。另外,FCC亦要求醫療業者須提出詳細證明,以供主管機關審查。審查文件中需證實所得頻寬資源,是透過公正的招標機制後,所採行最具成本效益之決定。 普及服務的延伸就如同規劃渠道,將水源引向一片匱乏與困境的孤島。美國在面對偏遠地區醫療資源的匱乏,以及該地醫療業者的困境時,運用寬頻網路來傳遞病患所需的服務,也透過城鄉醫療業者的結盟,讓城市醫療團隊所發展的技術,得以與偏遠地區藉提供服務後所得的實證資料,透過網路互通流通,甚至允許醫療業者佈建基礎寬頻建設,以提供更完善的服務。普及服務的概念,不應該偏離電信基礎建設的佈建,但更上一層樓的是以滿足人民基礎生存權利之必須所主導的概念。
美國加州「對話機器人揭露法案」美國加州議會於2018年9月28日通過加州參議院之對話機器人揭露法案(Bots Disclosure Act, Senate Bill No. 1001)。此一法案於美國加州商業及專門職業法規(Business and Professions Code)第七部(Division)第三篇(Part)下增訂了第六章(Part)「機器人」乙章,擬防範「利用對話機器人誤導消費者其為真人同時並誤導消費者進行不公平交易」之商業模式,本法案將於2019年7月1日正式生效。依此法案,企業如有使用對話機器人,則應揭露此一事實,讓消費者知悉自己是在與對話機器人溝通。 美國加州對話機器人揭露法案對於「機器人」之定義為全自動化之線上帳戶,其所包含之貼文、活動實質上並非人類所形成。對於「線上」之定義為,任何公眾所可連結上之線上網站、網路應用軟體、數位軟體。對於「人類」之定義為自然人、有限公司、合夥、政府、團體等其他法律上組織或擬制人格。如業者使用對話機器人進行行銷、推銷時,有揭露其為對話機器人之事實,將不被認定違反對話機器人揭露法案,但揭露之手段必須明確、無含糊且合理可讓消費者知悉其所對話之對象為非人類之機器人。值得注意者為,美國加州對話機器人揭露法案,針對「美國本土造訪用戶群在過去12月間經常性達到每月10,000,000人」之網站,可排除此規定之限制。 本法案僅課予業者揭露義務,至於業者違反本法之法律效果,依本法案第17941條,需參照其他相關法規予以決定。例如違反本法案者,即可能被視為是違反美國加州民法揭露資訊之義務者而需擔負相關民事賠償責任。最後值得注意者為,本法案於第17941條針對「利用對話機器人誤導公民其為真人同時影響公民投票決定」之行為,亦納入規範,亦即選舉人如有利用對話機器人影響選舉結果而未揭露其利用對話機器人之事實時,依本條將被視為違法。
優質網路社會基本法之推動芻議