為勾勒人類未來生活型態,英國將在新堡( New Castle )投入約新台幣 150 億元建立一科學城,預定五年內整合化學、奈米、微機電及醫療技術整合。這座科學城是一座整合科學及產業技術的場所,由業界及政府共同支持,科學城內將成立三大研究機構,分別進行幹細胞研究、老年人健康、分子工程,及環境能源的改善。
英國皇家工程院院士雷蒙奧立佛( Raymond Oliver F.R.Eng )是這座科學城的主要規劃人,他指出,人類生活在下一個 20 年將出現四項結構性的現象:一是人口老化,二是個人化產品的普及,三是智慧型生活空間的出現,四是再生能源出現。面對這四大現象的普及,化工業者可以找到兩個發展方向,一是利用化學來提高醫療生活品質;二是利用化學來創造更自然的智慧型生活空間。
以醫療生活品質而言,化學可以進一步和幹細胞研究結合,並透過奈米技術發展出奈米級醫療電子產品,包括影像攝影取代藥物的人體臨床實驗,或是透過紅外線體外照射,讓硫化鎘等化學藥物能在體內直接殺死癌細胞 ; 在奈米材料方面,雷蒙指出,已有廠商研究出適合老人駕駛的汽車,這類汽車從空調、氣味,到生理資訊的偵測,都能配合老人較易疲勞的體質去設計。
歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)
德國最新無人機之法規命令(Die Drohnen-verordnug)德國在2017年的3月通過了最新的無人機相關法規命令,亦包含傳統模型飛機的部分,並於2017年4月7日生效,新的修正重點如下: 模型飛機如在專用的機場飛行則維持不變,但如果離開專用機場作使用時,則必須安裝記載有所有人姓名及住址的徽章。 在非專用機場使用時,無人機與模型飛機的共通事項: (1) 超過0.25公斤時:必須安裝記載有所有人姓名及住址的徽章。 (2) 超過2公斤時:除前述的徽章外,還必須有特別的有關無人機或模型飛機的專業知識證明;而該知識證明,可以從聯邦航空局(Luftfahrt-Bunderamt)或民間飛行運動協會(Luftsportverband)透過考試取得。 (3) 超過5公斤時:除前述的條件外,需要從各地區航空管理部門(Landesluftfahrtbehörden)追加額外的升空許可(Aufsteigserlaubnis)。 關於操作者的規範: (1) 無人機的操作者,除了在模型飛機基地外,原則上禁止飛行超過100米高,但可向地區航空管理部門提出申請。 (2) 模型飛行器操作者須有專業知識證明。 (3) 無人機與模型飛行器只能在能肉眼可見下飛行。 一般適用規定:無人機與模型飛行器不能阻礙或危害人力駕駛飛行器。 禁止事項: (1) 所有的無人機或模型飛行器不得在敏感區域(例如:警察機關、救難隊、大群民眾所在地、主幹道、航空起降區等)使用。 (2) 無人機與模型飛行器不得於住宅區接收、播送、以及紀錄影片、聲音、或是無線電訊號。 綜合觀察可以發現,德國對於無人機的使用規範(或限制),可以歸結至三 方面,對於使用人的規範、無人機的大小以及使用地點的限制。
加拿大決定將網路中立規範適用至行動無線網路加拿大廣播電視及電信委員會(Canadian Radio-Television and Telecommunications Commission,CRTC)於2009年10月之Telecom Regulatory Policy CRTC 2009-657中,公佈網路流量管理架構(Internet Traffic Management Pratices,ITMPs)之決定,作為管理ISP業者進行差別待遇之依據。該管理架構是加拿大維護網路中立性原則的實踐。 當時CRTC並未決定該架構是否一併適用於行動無線網路,直至2010年7月CRTC發布Telecom Decision CRTC 2010-445,決定將該規則一併適用於行動無線網路,以解決潛在的差別待遇行為發生於行動無線資料服務。 根據2009年之管理架構,CRTC宣示了四項管理原則: 1.透明度(Transparency) ISP必須透明揭露他們所使用的ITMPs,使消費者能根據這些資訊決定服務的購買與使用。例如經濟條件的透明,使消費者能夠有符合其支付意願之選擇,使市場機制能夠正常運作。 2.創新(Innovation) 解決網路壅塞最基本的方式是透過對網路之投資,也仍是最主要的解決方案。但依靠投資並不能解決所有的問題,CRTC認為,ISP業者之ITMPs在某些時候,仍需要適當的管理措施介入。業者之ITMPs應針對明確的需求而設計,不可過度。 3.明確(Clarity) ISP業者必須確保他們所使用的ITMPs不會有不合理的歧視,也不會有不合理的優惠。CRTC所建立之ITMP的管理架構,提供一個清晰和結構化的方法,來評估既有與未來的ITMPs是否符合加拿大電信法(Telecommunications Act)第27(2)條規範。 4.競爭中立(Competitive neutrality) 對於零售服務,CRTC將採取事後管制原則,即接受消費者投訴後處理之原則,進行管制評估。而在批發服務部份,則較為嚴格。亦即,當ISP在批發服務使用了比零售服務較多的限制性ITMPs時,必須得到CRTC之批准。當ISP將ITMPs用於批發服務時,必須遵守CRTC之管理架構,不得對次級ISP(Secondary ISP)的流量造成顯著和不相稱的影響。 值CRTC並將採取行動以確保因實施ITMPs而收集之個人資訊,不被洩漏與使用至其他目的。 在本項決定公佈之後,代表加拿大提供接取網際網路的ISP,無論使用何種技術,都將適用同樣的ITMPs管理原則。在Google-Verizon於美國遊說網路中立性應不適用於行動無線網路之時,CRTC之決定可做為不同方向之參考。
歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。