美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則:
一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。
二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。
三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。
四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。
五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。
六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。
七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。
八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。
九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。
十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。
本文為「經濟部產業技術司科技專案成果」
經濟部、金管會刻正規畫將企業員工分紅改列費用,並預計自九十六年度實施,以與國際會計處理原則接軌,預料將對高科技業將造成相當之衝擊。 國際會計準則都是將分紅列為費用計算,唯獨台灣是用盈餘在分配員工分紅,為與國際會計準則接軌,將分紅列入費用應是未來趨勢,可讓財報更加透明化,新今年 4 月 28 日 立法院修正通過的商業會計法第 64 條規定,公司企業應將員工分配盈餘在財報上改列為費用,以公平市價作為計算基準,並將另採行政命令或解釋令公布入帳方式。 不過員工分紅若以市價列入費用,公司帳上賺的錢就會減少,尤其是高價股、高配股的公司影響尤甚;另一方面,新規定亦可能使這些公司趕採股票選擇權,以或提高底薪、現金分紅等方式來降低衝擊,否則若是獲利都被「員工配股」稀釋光了,財報會非常難看。因此,高科技業者則希望主管機關能放寬買回庫藏股分配員工及員工認股權證規定,以降低衝擊。
英國發佈具有決定性的基因體醫藥報告正當英國衛生部門(Department of Heath)計畫建構一個受命與提供資金的機構來進行癌症分子研究時,一個著重於基因藥物使用的英國政府諮詢組織-人類基因體策略團體(Human Genomics Strategy Group)提出報告要求英國健康照護服務(National Health Service, NHS)以多面向的方式來開發潛在性基因體科技。 人類基因體策略團體所提供的報告建置出了英國就基因體藥物於臨床應用可行性的相關步驟,該等步驟可提昇英國臨床醫師決定疾病的風險與傾向、從事正確的診斷與預知,以及培養個人醫療的能力。除此之外,該報告亦開展了人類基因體於臨床與診斷照護上的創新應用,並且提供英國政府關於基因資料之處理、公共健康議題與教育等措施資訊,以用來支持基因體科技的應用。 該報告建議,有鑑於英國已擁有強健的研究文化與資源,現階段英國已經準備好基因體藥物研究的初期階段。然而,在開始基因體藥物的研究之前,英國政府應該先在基因體技術廣泛使用於臨床照護與診斷的面向上作出更多的努力,其中包括建制出一套對於基因體與臨床基因檢驗的清楚標準,用以發展出一般性的程序來幫助健康照護專業人員來取得檢驗並分析結果。除此之外,為了防止前述一般性程序產生各項倫理道德性爭議,該報告亦建議英國政府應該發展出一套法制規範來處理關於基因藥物是否具有利用性的挑戰議題,並且以該規範來防範各種基因體資料可能被濫用的問題。 而除了建置基因體計畫法制面的規範,為了讓基因體技術能更廣泛的應用於臨床照護與診斷的範疇,此報告亦建議英國NHS應該規劃採用基因體科技的計畫、發展中央基因體儲存網絡來處理大量由基因體藥物所產生的生物資訊,以及開展出針對基因體科技所發展的受命計畫和服務傳遞模型。同時,考量英國國民與健康照護人員對於促進基因體藥物亦有所幫助,該報告也建議英國NHS應該持續提供相關教育與訓練課程來提高前述人員對於基因體藥物的認知與其帶來的益處。 有鑑於基因體醫藥報告對於英國未來從事基因實驗、臨床研究與基因藥物的研發具有決定性的影響,然該報告僅建構出具體的大方向,對於細節部分尚未有大量的著墨。因此,英國官方部門如何將此份報告於法制面和技術面加以具體落實,實值得繼續就相關內容作後續的追蹤。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。