本文為「經濟部產業技術司科技專案成果」
美國聯邦眾議院在7月23日時通過極富爭議性的《2015安全與精準食物標示法》(Safe and Accurate Food Labeling Act of 2015)草案,目前該案已經交由美國聯邦參議院審理,並完成參議院二讀程序,交由參議院農業、營養與森林委員會(Committee on Agriculture, Nutrition, and Forestry)審理。本案主要目的在於替自願性基因改造與非基因改造標示建立一套統一的聯邦標準。引發爭議的是本案第203條b項的規定,該條款規定禁止各州建立強制性基因改造產品標示制度。 該案由堪薩斯州選出的共和黨籍聯邦眾議員Mike Pompeo提出。根據他及本案最主要的遊說團體美國雜貨製造商協會(Grocery Manufacturers Association)的說法,之所以要禁止各州建立強制性的GMO產品標示制度,目的有二:一是透過建立全國性的標準,避免各州標準不同的紊亂。一是他們認為「基改產品跟非基改產品一樣好」,如果強制標示可能會誤導消費者,使其認為基改產品可能是有問題或風險的。同時,他們也擔心強制標示可能將導致產品的價格上升。這樣的主張確實獲得了許多眾議院議員的支持。該案在眾議院通過時獲得了275張支持票,其中有45票是民主黨籍眾議員投下的。分析這些投下贊成票的民主黨籍眾議員,大部分是來自對食物價格較為敏感的選區,或是在競選期間就已經收到來自農業部門的巨額捐款。 至於反對者則認為,由於本案將使各州及聯邦食藥署無法建立強制性的標示規定,侵害人民對於基改產品知的權利,而將此案稱為「黑暗法」(DARK Act)。他們認為在科學界對基因改造產品安全仍無絕對的共識、人民又對基改作物存有疑慮的情況下推動這項法案完全不合理。而這樣的爭論隨著今年三月世界衛生組織所屬的研究機構──國際癌症研究機構宣布將廣泛用於GMO穀物的除草劑草甘膦(或稱嘉磷塞,Glyphosate)歸類為2A類致癌物 (對人類很可能有致癌性,probable human carcinogen)後,變得更為激烈。許多反對者因此對基因改造產品的安全性有更高的疑慮。 一般預料,美國聯邦參議院將開始處理本案,支持與反對本案雙方的競爭也越趨白熱化,目前也有幾個修正的提案正在醞釀。當前美國國內已有康乃狄克州及緬因州等少數州別通過了強制的基改食品標示法案,此外還有66個法律案正在27個不同的州審議中。本案如果通過將大幅改變美國在此領域的管制情形。而由於美國是全球重要的基改產品生產國,本案的最終結果預料也經影響未來國際上對基改產品標示的管制。
促進智慧電網之發展—德國提出智慧電網佈建期程 行政院決議就登陸重大投資案增設政策性審查繼陳水扁總統於元旦宣示兩岸經貿改採「積極管理、有效開放」後,行政院於 3 月 22 日 的院會中通過兩岸經貿「積極管理、有效開放」配套機制方案,方案執行面向涵蓋經濟、農業、金融、人員及小三通等經貿往來層向,建立管理目標及機制。其中在經濟類部分,為強化對大陸投資之有效管理,企業赴大陸地區超過一定金額或涉及敏感科技的重大投資案,增設「政策面審查」, 但方案中並未進一步指出一定金額與敏感性產業的定義。 經經濟部邀集陸委會等相關單位,討論積極管理配套措施中的「重大投資案」界定標準,會中決定政府將參考國內廠商設立晶圓廠的投資規模,制定相關審查辦法,將 1 億美元以上或涉及敏感科技的投資案,進行「兩階段審查」,即政策面審查及投審會委員會議審查,並列舉需要經過政策面審查的產業。 所謂政策面審查,依據行政院大陸委員會發布的「兩岸經貿『積極管理、有效開放』配套機制」指出,是由政府邀請企業負責人及經理人,就企業財務計畫、技術移轉、輸出設備、在台相對投資等項目進行協調,在確定企業具體承諾,並由業者出具同意政府於必要時將進行大陸投資事項實地查核的承諾書後,再送投審會開會審查。經濟部表示,業者經核准進行大陸投資後,主管機關應分別針對母公司在國內持續投資與技術升級情況、廠商在大陸營運及增資、擴廠情形,持續追蹤管理,主管機關於必要時並將赴中國實地查核,以落實積極管理。 行政院表示,配套機制方案大部份是強調現行作業的「強化管理措施」,至於相關部會提出新增或應加強的執行事項,原則上應在今( 95 )年 6 月 30 日前完成,涉及修法及建置資料庫的部分,應在今年年底前執行或規劃完成。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。