歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。
該指引並進一步指出人工智慧應遵守以下四項倫理原則:
(1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。
(2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。
(3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。
(4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
本文為「經濟部產業技術司科技專案成果」
中國大陸近年致力發展其國內技術研究產業,但在基礎研究經費申請制度上,長期存在一些結構問題,如在科研資助、實施和成果傳播三個階段。故自2017年起,中國大陸陸續修正關於科研經費制度,以使科技研究人員得以順利進行科研項目。截至目前,依中國大陸國發〔2018〕25號文為基準,江蘇省推出《關於深化科技體制機制改革推動高品質發展若干政策》(下簡稱『江蘇科技改革30條』),並出台完整的實用手冊 。 此次江蘇科技改革30條,明確落實中央對科研經費鬆綁及對科研結果獎勵與容錯的改革措施。在科研經費可直接列支項目的直接預算,如設備費、材料費等,從原本九個項目改合併為五個項目,科目經費支出將不再受比例限制;另在無法直接羅列預算項目的間接預算上,如績效支出等費用則精簡列支項目,提高間接費用核定比例。在科研結果獎勵與容錯改革上,建立原創成果獎勵機制、創新補償機制、援助機制及免責機制。 中國大陸科研經費長期採用嚴格預算制,直接預算需按照法律規範羅列,然間接預算部分常使研究人員因不知如何羅列,而導致研究經費中斷或減少。對於較易失敗的基礎研究上,研究人員則擔心在階段性考核中因錯誤致使研發經費無法取得,進而將錯就錯,謊報研究成果。此次江蘇科技改革30條修正,解決了上述科研經費制度的部分問題,並具體規範了實務上的操作。然各部會間如何解決關於監管經費結餘規範之法律衝突,及科研成果容錯機制之評價,仍待後續觀察。
諾基亞採用蘋果開放軟體手機大廠諾基亞( Nokia )將在下一代智慧手機的瀏覽器中,採用蘋果電腦的開放原始碼軟體。其預定在今年六月推出 Series 60 智慧手機軟體包,其中的瀏覽器將整合數個同於蘋果 Safari 網路瀏覽器的開放原始碼科技– WebCore 和 JavaScriptCore 。 Safari 是以開放原始碼 K Desk Environment 之 Konquerer 瀏覽器的 KHTML 與 KJS 為基礎。 諾基亞表示,採用開放碼軟體後,將更方便開發商修改定作其新瀏覽器,並將提供新的使用者功能。諾基亞並且表示,未來仍將與蘋果電腦合作開放原始碼軟體,並積極投入開放原始碼社群。諾基亞對開放原始碼的興趣,在瀏覽器部門特別明顯。兩年前,該公司投資 Mozilla 基金會的 Minimo 計劃,創造一種根據 Mozilla Gecko 翻譯引擎的電話瀏覽器。 Minimo 團隊準備在今夏推出針對微軟 Windows CE 作業系統的 0.1 版瀏覽器。
美國職業安全及健康研究院﹙NIOSH﹚在奈米風險控管上的突破性進展美國職業安全及健康研究院﹙NIOSH﹚是美國發展奈米科技的重要政府單位之一。近來,其頻頻透過國際組織的運作來處理與奈米科技有關之職業安全與健康影響問題。NIOSH首長John Howard表示,在國際層次上,科學家及決策者皆明瞭處理與奈米材料製造及產業使用所引致之職業病或職災,是當下最重要的工作之一。而由於NIOSH在促進世界性科學對話上,始終扮演者厥功甚偉的角色,因而在奈米科技發展初期,其亦積極協助此一科技能夠充分考慮安全及健康問題,發展出具全球協調性的技術方法,並有助於美國在國際市場的領先地位。而其近期主要成就在於以下三個部分: 1.今﹙2007﹚11月29日,經濟合作暨發展組織﹙OECD﹚人造奈米材料工作小組通過NIOSH-Led計畫,負責執行奈米材料暴露控制與測量等相關資訊之交換,同時透過領導小組,與會員國共同聚焦商討一些足以引起公眾意識的議題,例如在職業環境中之暴露測量與減輕。 2.其次,在今年12月4日至同月7日的國際組織會議中,ISO TC229表決通過有關奈米科技在職業環境之安全與健康規範的報告初稿,此報告係以NIOSH所發表一份名為“Approaches to Safe Nanotechnology”的報告作為基礎,而繼續由其發展與修正。本報告初稿送至ISO技術委員會審查,委員會認為報告內容涵蓋完整的技術性工作,且其未來影響將遍及全球,而為全球組織所關切。 3.此外,在今年12月2日,NIOSH另參與世界衛生組織﹙WHO﹚之職業健康合作中心全球聯網會議,當次會議之焦點在於奈米科技,會中NIOSH代表負責報告工程奈米粒子在職業安全及衛生上所遭遇之挑戰現況。本次會議中將決定WHO合作機制如何發展運作,以避免暴露於可能有害的工程奈米粒子。 整體而言,關於奈米科技之安全與健康影響及其相關應用的研究,NIOSH統整建置了一套策略性工作計畫,透過這些研究專門處理一些重要問題,包括某些對於評估風險及控制暴露極為有效的科學資訊。除了研究之外,NIOSH亦積極參與國際組織活動,可以預見其對奈米科技未來發展之影響將無遠弗界。
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。