「食品衛生管理法」及「健康食品管理法」修正草案已於94年11月30日經行政院第2968次院會審查通過,將於近期進一步送立法院審議。未來只要有食品遭檢出含有害人體健康的物質,或標示不清,都一律得先下架禁賣並封存。而食品廣告誇大不實或宣稱具有療效部分,也在這次修法中加重其相關罰則。 本次修法重點為: 一、廣告管理:延長傳播業者保存委託刊播廣告者資料之期間,由原本2個月修正為6個月(食品衛生管理法修正條文第十九條、健康食品管理法修正條文第十五條)。 二、提高罰鍰額度: 1.加重宣稱療效健康食品業者之行政處分,提高其罰鍰額度,由原本6萬元以上30萬元以下,修正為20萬元以上100萬元以下,並規定一年內再違反者,得廢止其營業或工廠登記證照。(健康食品管理法修正條文第二十四條) 2.對於影響民眾飲食衛生安全較鉅之違法情節,提高罰鍰額度,將部分原本3萬元以上15萬元以下或4萬元以上20萬元以下,提高為6萬元以上30萬元以下(食品衛生管理法修正條文第三十一條及第三十三條)。 三、違規業者加重行政處分:違規標示產品 除應通知限期回收改正,進一步明定於改正前不得繼續販賣(食品衛生管理法修正條文第二十九條)。 四、擴大地方主管機關得命暫停作業並將物品封存之範疇(食品衛生管理法修正條文第二十四條)。
研究顯示:主管機關審查是否核發奈米專利的時間越來越長專研奈米科技領域的美國顧問諮詢公司 Lux Research and Foley & Lardner LLP 最近公布的一份報告( Nanotech IP Battles Worth Fighting )指出,美國商標專利局( US PTO )在去( 2005 )年共核發 4,996 個奈米技術領域的專利,雖然這個數字挺嚇人的,不過報告中也發現,過去一年取得奈米專利的成長率只有 4 %,比起更前一年( 2004 )的 20 %的成長率,少了許多。然報告指出, 取得奈米專利保護的成長趨緩並不表示投入這個領域的研究不夠,相反地,若從專利申請案的數字來看, 2005 年的申請案數字其實成長了 52 %。而 US PTO 奈米專利的核發率成長有限的原因,主要是因為申請人所主張的保護範圍交疊重複( overlapping claims ),使 US PTO 審查奈米專利所需的時間,相較於其他技術領域來得更長,平均而言,目前 US PTO 核發一項奈米專利所需的審查時間竟高達四年。 這項報告總共檢視了 2,738 個專利,涵蓋七類申請領域共計 52,148 個權利範圍的主張。報告總結,在電子領域中有關 carbon nanotube 及 quantum dot 之專利申請案,多數為脆弱的專利主張,有面臨法律訴訟的高度風險,若發生侵權訴訟,被告應該勇於進行訴訟防禦;而奈米材料由於市場潛力極大,故報告建議投入於專利搜尋或佈局之檢視,乃必要之成本。此外,報告也認為陶瓷奈米元件( ceramic nanoparticles )於能源領域的應用也極具發展潛力,並預期奈米電線( Nanowires )於電 子領域之應用將越來越受到重視。 不過,報告最後警告, patent trolls 的問題將會出現在奈米技術市場。所謂的 patent trolls 是指企業寧願花錢收購專利並透過授權收取權利金,也不願意自行投入研發的一種決策模式,此類企業通常是不負責實際商品交易的控股公司。
第三方支付法制問題研析 美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。