在製藥領域運用生物技術的方法來研發新藥與新醫療診斷方法,已有越來越重要的趨勢,且將成為未來醫療照顧的主流,因此各國政府均積極透過各種政策工具,企圖搶食此塊經濟利益的大餅,不過直到目前為止,推動生技製藥最為成功的國家,仍集中在少數幾個研發大國。一直以來,德國在製藥領域也是居有舉足輕重的科技領先地位,不過在涉及生技製藥這一塊,德國目前的成就有限,已成功上市而來源於德國的生技藥品,並不多見(2005年德國核准通過的140項新有效成分中,僅有6項由德國公司所研發)。另一方面,德國擁有全歐洲最多的生技公司數目,這些生技公司每年從事相當多的研發活動,但其與製藥公司卻甚少主動合作。為加強生技產業與製藥產業的連結與合作,德國聯邦教育與研究部(Bundesministerium für Bildung und Forschung, BMBF)新近提出了新補助政策-「生技製藥之策略性競爭」(Strategiewettbewerb BioPharma),企圖為德國重新贏回世界藥局(Apotheke der Welt)的美名。
這個新的策略規劃所訴求的對象,是由主要來自於學術界的生技公司與傳統的製藥產業界所成立的合作團隊,而以企業型態經營者(Unternehmerisch geführte Konsortien aus Wissenschaft und Wirtschaft )。BMBF希望透過鼓勵建立這樣的合作關係,讓這些合作參與者提出各種有助於以更有效率的方法研發醫藥品的新策略性概念或創意(Ideen für neuartige strategische Konzepte vorzulegen, die die Entwicklung von Medikamenten effizienter machen),以填補生技製藥產業價值創造鏈中的漏洞。所謂的價值創造鏈,指從實驗室的研究、醫院的投入、到醫藥品的製造、甚至是最後端的藥局等各生技製藥研發乃至製造使用所不可缺的各重要環節。
由德國的這項新補助政策可以看出,在生技製藥領域,德國政府的補助方向已不再侷限於傳統的技術能力的提升,反而是如何串連整個產業鏈以發揮價值創造的最大效益,為此一補助新政策的最大特色。由於補助的目的是在實現價值創造,因此補助去進行價值開發與規劃的醫藥技術項目,也沒有特別限定,反而是希望可以涵蓋所有可能的醫藥技術領域,因此包括抗癌藥物與治療神經系統方面疾病的藥物研發、開發新的疫苗或疾病診斷用的生物標記、以及如何建構臨床研究的新基礎架構(der Aufbau neuartiger Infrastrukturen für klinische Studien)等,均屬BMBF徵求創意的範圍。
經BMBF邀集由國際專家組成的評選委員會評選通過的創意,將可在未來五年獲得BMBF的經費持續協助。BMBF預計選出五個產學合作聯盟,投入總計一億歐元的經費支持,預計在今(2008)年秋天,將可順利選出五個補助的對象。BMBM的此項新補助政策受到生技製藥產業界的廣大迴響,成功引導德國生技產業與製藥產業構思各種可能的合作模式。BMBF表示,其在選擇適格的合作聯盟作為補助對象時,最重要的考量標準為合作夥伴的個別經歷介紹、其有無執行能力、是否具備執行所需的基礎環境條件、所提出的合作概念是否足以使其具備國際競爭優勢,以及所規劃的醫療技術發展是否具有創新性、原創性與市場潛力。
本文為「經濟部產業技術司科技專案成果」
德國聯邦資訊技術,電信和新媒體協會(bitkom)於2016年9月2日釋出將以歐盟新制定之一般資料保護規則(GDPR)內容為基礎,調整德國聯邦資料保護法(BDSG)之修法動向。 德國政府正在緊鑼密鼓地調整德國的資料保護立法,使之與歐盟GDPR趨於一致。已知未來將由“一般聯邦資料保護法”取代現行的聯邦法律。草案內容雖尚未定稿,但修正方向略有以下幾點: 首先,德國未來新法不僅參考GDPR、也試圖將該法與GDPR及歐盟2016年5月4日公告之歐盟資訊保護指令Directive(EU)2016/680相互連結。該指令係規範對主管機關就自然人為預防,調查,偵查等訴追刑事犯罪或執行刑事處罰目的,處理個人資料時的保護以及對資訊自由流通指令。 其次,新法將遵循GDPR的結構,並利用一些除外規定,如:在資料處理時企業應指派九人以上資料保護官(DPO)的義務。某些如通知當事人的義務規定,亦有可能在存有更高的利益前提下,限縮其履行範圍。此意味某些通知義務有可能得不適用,例如履行該義務需要過於龐大人力、資金支出、耗費過多等因素。 第三,聯邦法律將保留一些規定,如上傳給信用調查機構的條款、雇傭契約中雇用方面處理個人資料的條款,以及在公眾開放地區使用電子光學裝置監視的條款等。 最後,立法修正動向值得注意的重點尚有,(1)未來德國立法者將如何應對新的歐洲資料保護委員會(EDPB)中德國代表的地位(represe。由於EDPB將發布具有約束力的決定,針對爭議內容的決定意見,德國內部顯然應該統一意見。蓋因迄今為止的德國聯邦資料保護監察官(17個)經常提出不同的見解。此外,(2)還應該觀察聯邦資料保護監察官是否應該賦予權限,向法院提出對歐盟爭議決定或法律救濟,使案件進入德國法院,以爭執歐盟執委會所為之決定是否具備充足理由。前此,德國聯邦參議院(代表十六邦)2016年5月已要求聯邦政府引進新規定,使資訊監察保護官有請求法院救濟之權。這項源於安全港協議判決的討論,將來有可能提供德國資料保護監察官,挑戰隱私盾協議的可能性。但新法案是否會解決這一問題,這還有待觀察。 可預見在2017年9月下一屆德國聯邦議會選舉前,將通過法案。
因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。
促進公有文化創意資產的加值利用-以文化創意產業發展法規定為例 OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。