本文為「經濟部產業技術司科技專案成果」
美國白宮科技政策辦公室(Science and Technology Policy, OSTP)在2020年1月6日公布了「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」,提出人工智慧(AI)監管的十項原則,此份指南以聯邦機構備忘錄(Memorandum for the Heads of Executive Departments and Agencies)的形式呈現,要求政府機關未來在起草AI監管相關法案時,必須遵守這些原則。此舉是根據美國總統川普在去(2019)年所簽署的行政命令「美國AI倡議」(American AI Initiative)所啟動的AI國家戰略之一,旨在防止過度監管,以免扼殺AI創新發展,並且提倡「可信賴AI」。 這十項原則分別為:公眾對AI的信任;公眾參與;科學誠信與資訊品質;風險評估與管理;效益與成本分析;靈活性;公平與非歧視;揭露與透明;安全保障;跨部門協調。旨在實現三個目標: 一、增加公眾參與:政府機關在AI規範制定過程中,應提供公眾參與之機會。 二、限制監管範圍:任何AI監管法規實施前,應進行成本效益分析,且機關間應溝通合作,建立靈活的監管框架,避免重複規範導致限制監管範圍擴大。 三、推廣可信賴的AI:應考慮公平性、非歧視性、透明性、安全性之要求,促進可信賴的AI。 這份指南在發佈後有60天公開評論期,之後將正式公布實施。白宮表示,這是全球第一份AI監管指南,以確保自由、人權、民主等價值。
國際可再生能源組織發布2021年約旦可再生能源進度評估報告2020年7月,約旦能源與礦產資源部發佈「約旦能源綜合戰略(2020-2030)」,主要著重於下列三點:一、提升再生能源發電比例,降低能源進口量。將本地能源發電比例提高,同時降低石油衍生品於能源結構和發電總量中之比例。二、暫停核電項目計畫,未來約旦將不採用傳統來源生產更多之電力。三、降低碳排放量。 而在2021年2月時,國際可再生能源組織(IRENA)與約旦能源與礦產資源部透過視訊會議的討論結果,共同發布一份約旦可再生能源進度評估報告,指出約旦的可再生能源電量自2014年至2020年間,由幾近為零,增長約20%。 上開結果可能與約旦能源與礦產資源部重視太陽光電(PV)和風力發電的政策有關,包括整合產業發展的各種有利條件,如當地產業發展及所需之技術,以使收益最大化。此外,為使未來可再生能源更加增長,同時為了因應電網基礎設施(the grid infrastructure)的發展進度與可再生能源發展的進步不同,創造能源最終用途的需求及使其盡早電氣化,將成為未來政策上最重要的方向之一。
90億基金挹注 生技業添活水為推動國內生技業發展,行政院開發基金審核通過90億元成立三種「生技創業種子基金」,今年將開始運作,希望發揮拋磚引玉功能,吸引異業的大型民間資金投入生技產業。而為加強BIO-IT跨領域異業科技整合,行政院近期內還要推動Mega Fund大型基金參與,建構台灣成為亞太地區最活躍的生技重鎮。 生技產業被公認為21世紀的明星產業,台灣也列為兩兆雙星產業發展計畫的重點推動項目,並提出具體執行策略與願景目標,以建構台灣為擁有亞洲區最活躍的生技創投產業、基因體研究重鎮、人體臨床試驗中心與亞熱帶花卉王國,成為國際生技與製公司進入亞洲市場的重要門戶。 不過行政院科技顧問組在立法院科技與資訊委員會備詢時指出,台灣現雖已有223家創投公司,其中61家近三年正逐漸將生技納入投資組合。可是國內的投資人對研發型生技產業仍瞭解不夠,投資在生技創投資金雖有增加,著重投資於國內技術移轉及產業化過程中的草創期資金缺口,但行政院開發基金日前已通過三個「生技創業種子基金」,金額90億元,卻還沒有開始運作,異業的大型民間資金也還沒有進入生技產業。 為強化生技政策與資源統籌,行政院決定今年設立「生技產業策略諮議委員會」,替台灣生技產業未來方向作整體評估與規劃,並引導國際聯盟的佈局。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。