於2016年10月14日,中國大陸科技部為落實國務院於5月9日發布之《促進科技成果轉移轉化行動方案》中,有關大力推動地方科技成果轉移轉化,並開展區域性科技成果轉移轉化試點示範的要求,開始啟動在河北以及寧波,兩個科技成果轉移轉化示範區的建設計畫。
中國大陸推動國家科技成果轉移轉化示範區之目的在於推動科技成果轉移轉化工作,以期能有助於完善區域科技成果轉化政策環境,並且提升區域創新之能力;示範區的建設重點將在於完善科技成果轉化服務體系、建設科技成果產業化載體、開展政策先行先試等方面開展工作,進行地方的創新驅動發展。
為此,中國大陸科技部並印發了《科技部關於建設河北•京南國家科技成果轉移轉化示範區的函》、《科技部關於建設寧波國家科技成果轉移轉化示範區的函》兩份政策文件,其中河北•京南示範區的重點在於配合北京、天津,以及河北的區域協同發展,充分發揮跨區域輻射帶動作用,並且承接北京及天津的創新要素外溢轉移,以及與河北產業創新需求進行對接。而寧波示範區將則以科技成果轉化對產業和企業創新發展的對接為核心戰略,發展以企業為主體的科技成果轉移轉化示範區域。並以這兩個示範區的測試來探索模式、累積經驗。
本文為「經濟部產業技術司科技專案成果」
奈米科技發展愈加成熟,藥物和生物製劑包括主成分、賦形劑等都可能使用奈米物質,奈米藥品可包括口服藥、注射劑及局部外用藥,且適應症亦愈來愈多樣化。隨著奈米藥物申請送審的件數增加,美國食品及藥物管理局(U.S. Food and Drug Administration, USFDA)對於此類藥物的審查,除了依既有的藥品審查原則,亦必須針對奈米物質粒徑小的特性,評估粒徑之改變,是否會影響藥品製劑安全性、療效及品質。 美國食品及藥物管理局於2022年4月22日發布含有奈米粒子藥物之最終版產業指引,該指引的範圍涵蓋生物製劑以及基因治療,其要點包含:相關藥物開發原則、品質、研究具體考量因素,以及學名藥的簡易新藥查驗登記申請方式(Abbreviated New Drug Application, ANDA)。 USFDA 曾於2017年12月18日發布該指引的草案,在綜整各方意見後,本次最終版指引新增兩點修正,首先是於第27頁以下新增指引裡常用的26個名詞解釋,以協助讀者理解該份指引的重要術語;其次是學名藥廠於查驗登記時不能只證明製劑相等性,更要提供藥物動力學、藥理學、毒物學等證據以證明足夠的生物相等性,才可取得上市許可。 台灣目前仍在藥事法與特定醫療技術檢查檢驗醫療儀器施行或使用管理辦法,甚至過渡至再生製劑管理條例之法令結構調整過程中,並深受國內醫療環境與產業現況的影響;面對新興藥物研發方法在後疫情時代的快速發展,對產業可能帶來的衝擊與影響,如何並重藥物監理的審驗標準與前瞻性的促進更多有助新興藥物的發展,助益於我國老齡化社會結構的轉變,可更前瞻的參考USFDA最終版指南與標準,以加速台灣細胞治療或奈米藥物發展。
加州針對18歲以下兒童通過兒童隱私保護法加州州長Gavin Newsom 早先簽署了《加利福尼亞州適齡設計法》(California Age-Appropriate Design Code Act AB 2273,以下簡稱該法),2023年4月28日,倡議團體與聯邦政府官員提交一份意見陳述以支持該法,預計於2024年7月1日生效;針對提供線上服務、產品給18歲以下加州兒童的企業進行管制。 該法的適用範圍: 1. 倘若企業提供的線上服務、產品或功能符合以下條件,則受該法所規範: (1) 提供服務的對象為兒童(年齡於13歲以下的孩童)之網路服務商。 (2) 所提供之服務包括兒童經常瀏覽的網站,或者確定是廣泛被兒童使用的線上服務、產品或功能。 2. CPRA(California Privacy Rights Act)所規範之「企業」,是位於加州並蒐集加州居民個人資料的營利性組織,其須滿足以下條件之一: (1) 年度總收入超過 25,000,00美元,或是每年單獨或聯合購買、出售或共享100,000名以上加州居民或家庭的個人資料,或者年收入的50%以上來自出售或共享加州居民的個人資料。 (2) 該法不適用於網路寬頻服務、電信服務或實體買賣行為。 一. 規範內容 1. 資料保護影響評估:企業針對所營事業須完成資料保護評估,且必須每兩年自主進行資料安全確認。 2. 最高級別隱私權設置:企業對於兒童使用者,須預設最高等級之隱私權設置及保護。 3. 隱私政策和條款:企業必須簡明的提供隱私政策、服務條款和明確標準,並使用與兒童年齡相符的清晰語言,以便兒童理解語意。 (1) 將兒童依據年紀分為:0至5歲為「早期識字階段」、6至9歲為「核心小學階段」、10至12歲為「過渡階段」、13歲以上為「早期成年階段」。 (2) 定位服務:要求企業在兒童的活動或位置受到父母、監護人或其他消費者的監控或追蹤時,向兒童明確提醒。 該法針對兒童制定嚴謹的法規予以保護,確保兒童個人資料不會在沒有認知的情況下,因使用服務而被蒐集、處理及利用。該法特殊的地方為,對於未成年人進一步區分不同年齡段,若有明確區分出並針對各年齡段進行不同的告知事項設計,將更易使閱讀之未成年人明確了解個資告知內容,應值贊同。
歐盟提出先進製造先進歐洲報告與行動方針 歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。