在製藥領域運用生物技術的方法來研發新藥與新醫療診斷方法,已有越來越重要的趨勢,且將成為未來醫療照顧的主流,因此各國政府均積極透過各種政策工具,企圖搶食此塊經濟利益的大餅,不過直到目前為止,推動生技製藥最為成功的國家,仍集中在少數幾個研發大國。一直以來,德國在製藥領域也是居有舉足輕重的科技領先地位,不過在涉及生技製藥這一塊,德國目前的成就有限,已成功上市而來源於德國的生技藥品,並不多見(2005年德國核准通過的140項新有效成分中,僅有6項由德國公司所研發)。另一方面,德國擁有全歐洲最多的生技公司數目,這些生技公司每年從事相當多的研發活動,但其與製藥公司卻甚少主動合作。為加強生技產業與製藥產業的連結與合作,德國聯邦教育與研究部(Bundesministerium für Bildung und Forschung, BMBF)新近提出了新補助政策-「生技製藥之策略性競爭」(Strategiewettbewerb BioPharma),企圖為德國重新贏回世界藥局(Apotheke der Welt)的美名。
這個新的策略規劃所訴求的對象,是由主要來自於學術界的生技公司與傳統的製藥產業界所成立的合作團隊,而以企業型態經營者(Unternehmerisch geführte Konsortien aus Wissenschaft und Wirtschaft )。BMBF希望透過鼓勵建立這樣的合作關係,讓這些合作參與者提出各種有助於以更有效率的方法研發醫藥品的新策略性概念或創意(Ideen für neuartige strategische Konzepte vorzulegen, die die Entwicklung von Medikamenten effizienter machen),以填補生技製藥產業價值創造鏈中的漏洞。所謂的價值創造鏈,指從實驗室的研究、醫院的投入、到醫藥品的製造、甚至是最後端的藥局等各生技製藥研發乃至製造使用所不可缺的各重要環節。
由德國的這項新補助政策可以看出,在生技製藥領域,德國政府的補助方向已不再侷限於傳統的技術能力的提升,反而是如何串連整個產業鏈以發揮價值創造的最大效益,為此一補助新政策的最大特色。由於補助的目的是在實現價值創造,因此補助去進行價值開發與規劃的醫藥技術項目,也沒有特別限定,反而是希望可以涵蓋所有可能的醫藥技術領域,因此包括抗癌藥物與治療神經系統方面疾病的藥物研發、開發新的疫苗或疾病診斷用的生物標記、以及如何建構臨床研究的新基礎架構(der Aufbau neuartiger Infrastrukturen für klinische Studien)等,均屬BMBF徵求創意的範圍。
經BMBF邀集由國際專家組成的評選委員會評選通過的創意,將可在未來五年獲得BMBF的經費持續協助。BMBF預計選出五個產學合作聯盟,投入總計一億歐元的經費支持,預計在今(2008)年秋天,將可順利選出五個補助的對象。BMBM的此項新補助政策受到生技製藥產業界的廣大迴響,成功引導德國生技產業與製藥產業構思各種可能的合作模式。BMBF表示,其在選擇適格的合作聯盟作為補助對象時,最重要的考量標準為合作夥伴的個別經歷介紹、其有無執行能力、是否具備執行所需的基礎環境條件、所提出的合作概念是否足以使其具備國際競爭優勢,以及所規劃的醫療技術發展是否具有創新性、原創性與市場潛力。
本文為「經濟部產業技術司科技專案成果」
歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。
國際能源總署發布2022年再生能源報告,分析全球再生能源發展現況並預估未來趨勢國際能源總署(International Energy Agency, IEA)於2022年12月6日發布2022年再生能源報告(Renewable 2022),其整理和分析各國之再生能源政策和市場發展現況,並預測再生能源於2022至2027年間在電力、交通和供熱的部署情況,同時提出相關產業在發展上的主要障礙。報告重點如下: (1)能源危機加速再生能源成長 烏俄戰爭所導致之能源危機,迫使各國加速其推動再生能源之政策,例:中國的十四五年規劃、歐盟的REPowerEU計畫,以及美國的降低通膨法案(Inflation Reduction Act)等等,將使2022至2027年間全球的再生能源裝置容量提升約2400GW,等同於中國目前電力的總量,其中歐盟、中國、美國和印度在未來五年間所建置之再生能源,將是過往五年的兩倍;而未來五年間全球成長之電力裝置容量中,再生能源的部分將占90%以上,並且,其總裝置容量將於2025年超越燃煤,成為最大宗的電力來源,其中,又將以太陽光電和風電為主要的發電方式。 (2)各國再生能源法制政策仍有進步空間 國家再生能源法制的不確定性、經濟措施不足、許可程序繁冗,以及電網設施的缺乏,都將阻礙再生能源的發展,若能消除該些障礙,包含簡化許可程序、改善競標方式及提升誘因機制,全球再生能源的成長速率將能再提升25%。 (3)再生能源轉換為氫氣之應用將大幅提升 隨著超過25個國家的氫能政策,全球用於電解產氫的風電和太陽光電裝置容量於2022至2027年間將達50GW,提升近100倍,而主要發展之國家為中國,其次則是澳洲、智利和美國。 (4)生質能的需求持續增加並需開發更多元的原料來源 國際對於生質能的需求將持續增加,在未來五年裡預計成長22%。其中,廢棄物和殘渣的利用是生質燃料重要的一環,至2027年時將有約三分之一的生質燃料來自該兩者,而在燃料需求擴增並造成供應壓力的情況下,則有待政策的推動和技術的研發,以開發更多元且永續的生質能原料。 (5)再生能源供熱的發展程度仍無法取代化石燃料 由於越來越多的供熱來源是依賴電力,而電力中再生能源的比例亦不斷提升,因此,2022至2027年間的再生能源供熱將會提升三分之一,而亦有部份原因是來自政策的推動,尤其是遭遇天然氣危機的歐盟。不過,依目前再生能源供熱技術的發展程度,還無法追上傳統化石燃料所能供熱的數量。
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。