添加營養素到一般之食物中,對於維持或增進整體食物之營養品質來說,是一個非常有效率之方式。然而,不當添加或濫用這些外加之營養素,卻可能造成消費者過度或不足攝取某些特定之營養成分,甚至更可能造成某些食物之營養價值有誤導或詐騙消費者之嫌。
美國食品藥物管理局(Food and Drug Administration,以下簡稱FDA)為了統一回應食品廠商、其他聯邦主管機關以及相關學會之問題,針對添加到食物中之必需營養補充品,在2015年11月6日公告了一份指導原則(Questions and Answers on FDA’s Fortification Policy)。本指導原則以Q&A之形式呈現,,列出FDA對於食品營養強化物(Fortification of Foods)政策之態度(並未變更其自1980年代以來對於食品營養強化物之向來立場)以及建議遵循規定。
FDA建議食品營養強化物添加之基本原則如下:校正飲食之缺陷;補充因食物於處理、流通之過程中所喪失之營養素;根據食物整體熱量計算之結果,均衡添加各種食品營養強化物等。
本指導原則僅適用於人類使用之食品,動物用食品並不在其建議範圍內;另外,其亦不適用於嬰幼兒配方或是一般之保健營養品,其僅適用於一般常規之食物,例如:牛奶、果汁、豆漿、麥片、麵包、通心粉、乳瑪琳等。但是要注意,針對一些新鮮的食物或本身即非營養的食物,例如:新鮮蔬菜、魚肉類、糖、甜點、碳水化合物等,並不建議再額外添加食品營養強化物。
另外,只有人體所必須的營養素(essential nutrients)才可額外添加到常規的食品中,亦即所有添加物都須依據膳食營養素參考攝取量(Reference Daily Intakes;RDI)所規定之種類及建議量,做適當的添加;且添加物必須合法且安全。
食品營養強化物之標示,則必須依據食品標示相關法規恰當為之,不可出現會誤導消費者的任何詞彙,也不宜做出任何可以預防營養素缺乏之陳述,因為這麼做可能使消費者誤認有添加物的食品其營養成分較原始食物高。
本指導原則對廠商並無強制力,然要是廠商有違反本指導原則之情形,FDA將會發出警告信,顯示出FDA強烈建議廠商遵守本指導原則之決心。
2023年5月17日,日本國會通過了《著作權法》部分條文修正案,並於同月26日公布(2023年第33號法)。 隨著數位化的進步,內容的創作、傳播和使用變得更加容易,不再只是過去主流的出版社、電視台等「專業人士」才能從事,而是一般普羅大眾也可以參與創作,並將內容貼在網路上。與此同時,既有著作之重新利用的需求等情形均日益增加,然而此類內容的問題在於難與著作權人取得聯絡,不一定可順利使用。 為了解決上述問題,本次修正重點之一係新增第67之3條,根據該條規定,儘管著作之利用人採取了確認著作權人授權意願等措施,但仍無法確認著作權人授權意願時,得向文部科學省所屬之文化廳申請裁定,經文化廳長裁定允許利用並繳納補償金後,利用人得於該裁定所定之期間內(申請書所載之期限最長不得超過3年)先行使用該著作。新裁定利用制度放寬了確認著作權人意願之程序與要求,降低使用門檻,並同時規定著作權人可聲請撤銷使用,如果文化廳長裁定撤銷使用,則利用人應停止繼續使用該著作,著作權人得依利用人實際使用期間之比例領取補償金。另為簡化及加快程序,關於新裁定利用制度之申請受理、要件確認與補償金額的決定等部分事務,文化廳長得指定特定之民間機構作為聯絡窗口負責相關行政手續之處理(第104條之33以下相關規定)。 新裁定利用制度的建立,將有助於促進著作之流通利用,即認為已充分週知著作權人,且盡可能地確認著作權人等是否可以使用的意思,仍不能確認意思狀態之著作,而採取一定措施放寬使用是妥適的。因考慮到週知等需要時間,乃決定從公布日(2023年5月26日)起3年內施行。 本文同步刊登於TIPS網(https://www.tips.org.tw)
美國「能源效率改革法案」簡介 世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。
敏感科技保護「敏感科技」的普遍定義,係指若流出境外,將損害特定國家之安全或其整體經濟競爭優勢,具關鍵性或敏感性的高科技研發成果或資料,在部分法制政策與公眾論述中,亦被稱為關鍵技術或核心科技等。基此,保護敏感科技、避免相關資訊洩漏於國外的制度性目的,在於藉由維持關鍵技術帶來的科技優勢,保護持有該項科技之國家的國家安全與整體經濟競爭力。 各國立法例針對敏感科技建立的技術保護制度框架,多採分散型立法的模式,亦即,保護敏感科技不致外流的管制規範,分別存在於數個不同領域的法律或行政命令當中。這些法令基本上可區分成五個類型,分別為國家機密保護,貨物(技術)之出口管制、外國投資審查機制、政府資助研發成果保護措施、以及營業秘密保護法制,而我國法亦是採取這種立法架構。目前世界主要先進國家當中,有針對敏感科技保護議題設立專法者,則屬韓國的「防止產業技術外流及產業技術保護法」,由產業技術保護委員會作為主管機關,依法指定「國家核心科技」,但為避免管制措施造成自由市場經濟的過度限制,故該法規範指定應在必要的最小限度內為之。