添加營養素到一般之食物中,對於維持或增進整體食物之營養品質來說,是一個非常有效率之方式。然而,不當添加或濫用這些外加之營養素,卻可能造成消費者過度或不足攝取某些特定之營養成分,甚至更可能造成某些食物之營養價值有誤導或詐騙消費者之嫌。
美國食品藥物管理局(Food and Drug Administration,以下簡稱FDA)為了統一回應食品廠商、其他聯邦主管機關以及相關學會之問題,針對添加到食物中之必需營養補充品,在2015年11月6日公告了一份指導原則(Questions and Answers on FDA’s Fortification Policy)。本指導原則以Q&A之形式呈現,,列出FDA對於食品營養強化物(Fortification of Foods)政策之態度(並未變更其自1980年代以來對於食品營養強化物之向來立場)以及建議遵循規定。
FDA建議食品營養強化物添加之基本原則如下:校正飲食之缺陷;補充因食物於處理、流通之過程中所喪失之營養素;根據食物整體熱量計算之結果,均衡添加各種食品營養強化物等。
本指導原則僅適用於人類使用之食品,動物用食品並不在其建議範圍內;另外,其亦不適用於嬰幼兒配方或是一般之保健營養品,其僅適用於一般常規之食物,例如:牛奶、果汁、豆漿、麥片、麵包、通心粉、乳瑪琳等。但是要注意,針對一些新鮮的食物或本身即非營養的食物,例如:新鮮蔬菜、魚肉類、糖、甜點、碳水化合物等,並不建議再額外添加食品營養強化物。
另外,只有人體所必須的營養素(essential nutrients)才可額外添加到常規的食品中,亦即所有添加物都須依據膳食營養素參考攝取量(Reference Daily Intakes;RDI)所規定之種類及建議量,做適當的添加;且添加物必須合法且安全。
食品營養強化物之標示,則必須依據食品標示相關法規恰當為之,不可出現會誤導消費者的任何詞彙,也不宜做出任何可以預防營養素缺乏之陳述,因為這麼做可能使消費者誤認有添加物的食品其營養成分較原始食物高。
本指導原則對廠商並無強制力,然要是廠商有違反本指導原則之情形,FDA將會發出警告信,顯示出FDA強烈建議廠商遵守本指導原則之決心。
美國最高法院在2016年2月9日,以暫時處分裁定美國環保署在「清潔電力計畫」(Clean Power Plan)下所擬訂的「對固定污染源的碳排指引:電業發電單位」( Carbon Pollution Emission Guidelines for Existing Stationary Sources: Electric Utility Generating Units ),在北新(Basin)電力公司等對其所提起訴訟期間,暫緩實施。 所謂環保署「清潔電力計畫」(Clean Power Plan),係為因應氣候變遷,在2015年8月由美國總統在演說中公布,並於同年10月由美國環署公布「對固定污染源的碳排指引:電業發電單位」最終內容。該計畫的具體目標乃以2005為標準,在2030減少碳排32%,各州並得自行訂訂計畫;預期的計畫效果則包含:保護一般的美國家庭、促進經濟,與協助一般美國家庭節省費用。 由於該案涉及大規模以天然氣、風力與太陽能取代燃煤電廠,2015年的10月23日至11月5日間,由北新與其他近60家電業向聯邦哥倫比亞特區上訴法院(United States Court of Appeals for the District of Columbia Circuit)提出申請暫緩實施之聲請。2016年1月21日 該上訴法院駁回聲請,同月26日原本提出聲請的電業再向最高法院提出暫緩實施之聲請。 在向最高法院的聲請中,業者主張:因系爭指引所規範排放限制量為任何現行發電業者(Electricity Generating Units, EGUs)無法透過現行科技或流程改善單獨達成,將迫使整個電力產業作出轉變。業者並指出,由於淘汰既有電廠與建立新的再生能源計畫皆須長時間的努力來執行,若欲在2022年達成相關目標,電業必須現在就展開行動。 而最高法院也認同業者的主張,指出:因訴訟曠日廢時,若不暫緩實施系爭指引,立即、無法回復、且特別重大的損害將持續發生;且美環署仍將取得該計畫所欲取得之效果,縱使系爭指引最終被廢止。 基於上述理由,最高法院以暫時處分裁定系爭措施暫緩實施。
第三方支付法制問題研析 何謂「證券型代幣發行(STO)」?運用區塊鏈技術發行加密貨幣(Cryptocurrency,又稱虛擬貨幣)進行募資,為當前熱門的新創募資手段之一,此種募資方式稱為首次代幣發行(Initial Coin Offering,ICO)。由於ICO過去並未受到監管,其發行也僅有發行人所撰寫的白皮書(Whitepaper)可供參考,投資人與發行人間有相當大的資訊落差,也因此導致以ICO為名的詐騙案件層出不窮。 對此各國監管機關紛紛對ICO進行分類與監管,美國證券交易委員會(SEC)即將加密貨幣區分為效用型代幣(Utility Token)與證券型代幣(Security Token),並將後者納入監管。SEC採用1946年美國聯邦最高法院在SEC v. W.J. Howey Co.案判決中所適用的標準(Howey Test),若「投資人基於對合理報酬的預期,對特定事業進行金錢的投資,且該獲利來自於他方的努力」,即屬於證券型代幣而需要受到監管。 SEC據此對涉及詐欺的ICO案件嚴格執法,並積極輔導非屬詐欺案件依法辦理註冊發行程序。證券型代幣發行(Security Token Offering,STO)即為配合SEC監管規範下,為消除過去對於ICO募資疑慮所產生的法遵解套辦法。對此我國金管會亦積極評估是否將STO的標準引進我國,惟因我國對有價證券之定義與要件,與SEC所採之Howey Test有所不同,而尚在研議當中。
德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。