事前承認制為日本基於科研成果廣泛運用之目的,透過產業技術力強化法第19條的增修正式引入拜杜法制度後,針對政府資助研發成果移轉或授權予計畫外第三人的情形賦予委託機關與執行單位的義務。在日本拜杜法制度下,政府資助研發成果的相關專利權原則上得歸屬於執行單位,但考量到這些研發成果若移轉給未預備活用該些成果之人,將會造成由國家資金所衍生的科研成果難以被運用,從而無法達成促進成果運用的法目的,因此在該法第19條第4項增訂事前承認制。
依該制度,執行單位若欲讓與歸屬於執行單位之政府資助研發成果所涉及專利權給第三人,或將使用該些專利權的權利設定或移轉予第三人時,除了符合政令所定不妨礙專利權運用之情形外,委託機關須和執行單位約定為上開移轉等行為前,須先取得委託機關的同意。
本文為「經濟部產業技術司科技專案成果」
英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。
日本經濟產業省公布自動駕駛後續之政策方針報告書 歐盟執委會規劃制訂「2050能源發展藍圖」歐盟執委會(European Commission)於去(2011)年12月公布「2050能源發展藍圖(Energy Roadmap 2050: a secure, competitive and low-carbon energy sector is possible)」,主要係執委會承諾將推動歐盟於2050年前達成溫室氣體80-95%減量目標(相較於1990年排放基準),建立具競爭力之低碳經濟社會,所以規劃擬訂「2050能源發展藍圖」,期望能導引歐盟走向「無碳化目標(Decarbonisation Objective)」,同時並確保能源供應安全及保持國際競爭優勢。 並且,奠基於之前「歐洲2020發展策略(Europe 2020)」所設立推動「20-20-20」溫室氣體減量及能源效率目標,歐盟執委會認為進一步擬訂「後2020時期策略(Post-2020 Strategies)」是非常亟需的,並且認為以現有規劃持續推動,2050年僅將達成減少40%減量目標,對於歐盟建立成為無碳化社會之目標,是非常不足夠的,所以擬訂此一發展藍圖。 「2050能源發展藍圖」主要設定了五項無碳化發展願景(Scenarios):包含提高能源效率(High Energy Efficiency)、多元化能源技術(Diversified Supply Technologies)、提昇再生能源比例(High Renewable Energy Sources)、 因應碳捕捉發展(Delayed CCS)、 降低核能發電(Low Nuclear)等,並對於「2020至2050發展規劃(Moving from 2020 to 2050)」,研析諸如提昇能源節省與管理需求(Energy Saving and Managing Demand)、移轉使用再生能源發電(Switching to Renewable Energy Sources)、天然氣過渡重要角色(Gas Plays a Key Role in the Transition)、智慧能源技術及儲存發展(Smart Technology, Storage and Alternative Fuels)、電力管理新思考(New Ways to Manage Electricity)、整合區域發電資源與集中系統(Integrating Local Resources and Centralised Systems)等重要議題。未來歐盟執委會如何進一步依據「2050能源發展藍圖」規劃制訂推動措施及配套機制,值得持續觀察研析。
世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。