英國上議院人工智慧專責委員會(Select Committee on Artificial Intelligence)2018年4月18日公開「AI在英國:準備、意願與可能性?(AI in the UK: ready, willing and able?)」報告,針對AI可能產生的影響與議題提出政策建議。
委員會建議為避免AI的系統與應用上出現偏頗,應注重大量資訊蒐集之方式;無論是企業或學術界,皆應於人民隱私獲得保障之情況下方有合理近用數據資訊的權利。因此為建立保護框架與相關機制,其呼籲政府應主動檢視潛在英國中大型科技公司壟斷數據之可能性;為使AI的發展具有可理解性和避免產生偏見,政府應提供誘因發展審查AI領域中資訊應用之方法,並鼓勵增加AI人才訓練與招募的多元性。
再者,為促進AI應用之意識與了解,委員會建議產業應建立機制,知會消費者其應用AI做出敏感決策的時機。為因應AI對就業市場之衝擊,建議利用如國家再訓練方案發展再訓練之計畫,並於早期教育中即加入AI教育;並促進公部門AI之發展與布建,特別於健康照顧應用層面。另外,針對AI失靈可能性,應釐清目前法律領域是否足以因應其失靈所造成之損害,並應提供資金進行更進一步之研究,特別於網路安全風險之面向。
本報告並期待建立AI共通之倫理原則,為未來AI相關管制奠定初步基礎與框架。
本文為「經濟部產業技術司科技專案成果」
德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。
授權合約不公 飛利浦挨罰600萬公平交易委員會於上( 4 )個月 20 日對巨擘等三家光碟廠商檢舉荷蘭商菲利浦電子公司專利授權合約不公一案做成決議,飛利浦的 CD-R 專利技術授權合約,要求被授權人提供「製造設備清冊」及「書面銷售報告」,已足以影響交易秩序、顯失公平行為,違反公平交易法第 24 條規定,處新台幣 600 萬元罰鍰。這是公平會對飛利浦的 CD-R 光碟專利授權行為,作成的第二件處分案,第一件為飛利浦、 日本 新力及日商太陽誘電被檢舉,在台的 CD-R 光碟片產品專利授權行為,違反聯合行為的規定,飛利浦被處新台幣 800 萬元罰鍰,該案目前仍在行政訴訟中。 公平會認為,飛利浦與新力公司共同制定 CD-R 光碟片技術規格書,國內光碟廠商如生產符合「橘皮書」規格的 CD-R ,必須取得飛利浦專利授權,在 CD-R 專利授權的締約過程中,飛利浦具有相對優勢地位。飛利浦並在授權合約要求被授權人,提供「製造設備清冊」及「書面銷售報告」,內容涉及被授權人的產能利用率、產量、客戶名單及個別客戶交易量等重要資訊;但這些資料與權利金總數額的計算,並無密切相關。飛利浦除為此專利的專利權人,也授權其他製造廠商產製 CD-R 光碟片,並以 Philips 品牌從事光碟片販賣,與被授權人在市場是處於競爭地位。因此,飛利浦利用此優勢地位,取得被授權人公司經營成本的重要資訊,雙方在市場會產生不公平競爭。 飛利浦則表示,授權合約要求被授權人提供「製造設備清冊」及「書面銷售報告」,是為確認被授權人授權產品報告的正確性,這是國際授權實務上的慣例。飛利浦在合約已保證相關內容,不為合約目的外的使用,並無違法行為;該公司將循正常程序提出訴願。
中國大陸政府持續就行動遊戲等出版物之行政審查流程進行簡化和加速中國大陸政府持續就行動遊戲等出版物 之行政審查流程進行簡化和加速 科技法律研究所 法律研究員 蘇彥彰 2014年12月02日 壹、部分出版審批程序調整為「後置審批」制 繼今年8月取消和下放45項行政審批項目,取消11項職業資格許可和認定事項,並將31項工商登記前置審批事項改為後置審批[1]之後,11月24日時國務院再次對外公布決定取消和下放58項行政審批項目,取消67項職業資格許可和認定事項,並將82項工商登記前置審批事項調整或明確為後置審批[2];其中出版物批發業務許可、出版物零售業務許可、設立印刷品印刷經營等活動企業之審批、印刷業兼營包裝裝潢等印刷經營活動審批、音像製作單位設立審批、電子出版物製作單位設立審批、音像複製單位設立審批、電子出版物複製單位設立審批、設立可錄光盤生產企業審批等九項與新聞出版相關之項目,由前置審批調整為後置審批。所謂後置審批係指,企業可以先辦理工商營業執照後,再由主管部門申請審批,雖仍需在主管部門審批完後才可以正式展開經營活動,但企業可以在這段時間內進行公司設立的相關準備工作,提高投資主體進入市場及開展商業活動的速度。 貳、提出行動遊戲雙軌制審批程序以及擴編審查人員,以加速審批、落實管制 除了前述針對新聞、出版、印刷等項目就行政程序進行簡化和加速工作外,中國大陸國家新聞出版廣電總局亦於11月21日公開宣示將「貫徹落實國務院全面督查整改落實」[3],其中包括對移動網絡遊戲(下稱行動遊戲)審批制度進行改革,以改善目前審批時間過長、效率不高的問題。 依據該公告之內容,未來審批制度將朝向雙軌制方向發展,其中對於未涉及民族、宗教、歷史、政治、疆域等議題,且無故事情節或故事情節單純(如棋盤類等休閒益智遊戲)之中國大陸本地自製行動遊戲,將採取簡易審批制度以提高審查效率,同時將審查專家員額倍增至20名,以維持並提高審查品質。在上述改革推動下,目標將縮短審查時間,由現行30天初審、15天複審期限,分別壓縮至15天及5天。其進一步具體做法,中國大陸國家新聞出版廣電總局現正研擬「關於規範移動網絡遊戲出版審批管理的通知」,預計於2014年12月下旬發布施行[4]。 參、小結 近年來中國大陸國務院積極推行行政審核程序的改革,並自2002年起陸續進行了12次行政審核批准事項的取消、調整或下放,而國家新聞出版廣電總局除了持續就各項新聞、出版、發行業務的行政審查管控流程,進行簡化和加速的革新工作外,面對近幾年行動遊戲的興起,除一再重申行動遊戲須符合網路遊戲審批相關規定外,也積極處理行政審批時間過長、效率低落問題,以便落實管制。 惟應注意的是,行動遊戲審批制度的革新,目前係以其國產遊戲為主。對此,是否會間接形成對外國業者競爭上的不對等,我方行動遊戲開發業者宜留意相關發展,納入後續遊戲開發方向與市場策略布局之評估要素一環。 [1] 《国务院关于取消和调整一批行政审批项目等事项的决定》(国发〔2014〕27号) [2] 《国务院关于取消和调整一批行政审批项目等事项的决定》(国发〔2014〕50号) [3] 〈国家新闻出版广电总局贯彻落实国务院 全面督查整改落实进展情况〉,中华人民共和国国家新闻出版广电总局,http://www.gapp.gov.cn/news/1663/232219.shtml(最後瀏覽日:2014/12/01) [4] 大公網,〈廣電總局擬縮減移動網遊審批程序 12月底前實施〉,2014/11/24,http://finance.takungpao.com.hk/tech/q/2014/1124/2837153.html(最後瀏覽日:2014/12/01)
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。