美國商務部於2023年3月21日對《晶片與科學法》(CHIPS Act)獎勵計畫中的國家安全護欄條款(guardrails)提出法規草案預告(Notice of Proposed Rulemaking, NPRM),並對外徵詢公眾意見,確保美國和盟友間的技術協調合作,促進共同國家安全利益。CHIPS作為國家安全倡議,以重建和維持美國在全球半導體供應鏈中的領導地位為目標,並確保CHIPS所補助的資金及尖端技術,不會直接或間接使中華人民共和國、俄羅斯、伊朗和北韓等特定國家受益或用於惡意行為,若CHIPS受補助者參與限制交易,政府可以收回全部資金補助。護欄條款對受補助者實施限制說明如下:
1.限制在特定國家擴張先進設施:自獲得補助起10年內,禁止對特定國家或地區的尖端和先進半導體設施為重大投資、協助擴大半導體製造能力。投資金額達100,000美元定義為重大交易,將設施生產能力提高5%為擴大半導體製造能力。
2.限制在特定國家擴建傳統設施:禁止在特定國家擴充半導體新生產線或將傳統半導體設施的生產能力擴大超過10%。若半導體設施的產出「主要服務」於該國國內市場(超過85%),則允許建造新的傳統設施,但最終產品只能在該國家或地區銷售。
3.半導體屬對國家安全至關重要項目:擬將一系列晶片歸類為涉及國家安全,並與國防部和情報局協商制訂清單管制,包括用於量子運算、輻射密集環境,和其他專業軍事能力的新進和成熟製程晶片。
4.加強美國出口管制:透過出口管制和CHIPS國家安全護欄條款,調整對儲存晶片的技術門檻限制並加強控制。對邏輯晶片應用,會設定比出口管制更加嚴格的門檻。
5.限制聯合研究和技術授權:限制與特定外國實體就引起國家安全問題的技術或產品進行聯合研究和技術授權工作。聯合研究定義為由兩人或多人進行的任何研究和開發,技術授權為向另一方提供專利、營業秘密或專屬技術的協議。
本文為「經濟部產業技術司科技專案成果」
2010年藥物主動監視法規(pharmacovigilance legislation)要求EMA和EMCDDA必須加強在藥物產品濫用(包含不合法藥品)的資訊交換合作關係,是以,EMA和EMCDDA於今年九月初於葡萄牙里斯本相互簽署了修訂工作協議(amended working arrangement),約定在新型精神性影響藥物與藥物濫用的面向上,加強相互間的資訊交流合作。 於EMA和EMCDDA所簽訂的修正工作協議中,雙方約定就下列領域深化資訊交換: 1.雙方需各自依照歐盟執委會2005/387/JHA決議和歐盟1235/2010號法規第28c(2)條,對於所擁有之新型精神性影響藥物與藥物濫用(包含不合法藥品)資訊進行交換合作; 2.資訊交換需透過通常基準的報告形式由EMCDDA送至EMA,並含括有關於藥物產品濫用、不合法藥物,以及新型精神性影響物質等相關資訊; 3.EMA必須通知EMCDDA有關於藥物產品濫用的有效導因(validated signals),同時,EMA必須提供EMCDDA有關於藥物產品濫用和新型精神性影響藥品市場核准狀況的細部資訊; 4.EMA對於選定藥物產品之風險管理計畫的界定,可考量是否需先行與EMCDDA作諮詢意見交換; 5.EMA和EMCDDA在歐盟執委會2005/387/JHA決議和歐盟1235/2010號法規第28c(2)條所設基礎的合作模式下,必須要特別注意確保人類或動物健康照護並無惡化的情事,同時應確保科學建議之潛在衝突於前階段將會被界定與管理; 6.EMA和EMCDDA兩者間諮詢的進行,必須避免非關於新型精神性影響物質風險評估之科學建議的潛在衝突; 7.對於任何額外合作計畫的執行,必須考量EMA和EMCDDA兩者的例行性工作規劃; 8.對於特定計畫需要額外資源時,必須經由EMA和EMCDDA共同同意,並將同意文件附於現階段的工作協議中; 9.EMA和EMCDDA可就其各自舉辦的會議相互邀請對方,並邀請對該會議有興趣的其他團體參與; 10.對於EMA和EMCDDA間實際的合作面向,將在工作協議既定架構下繼續發展。 除了前述的適用範圍外,EMA和EMCDDA的修訂工作協議,亦有就相互諮詢和秘密資訊等領域作出約定,以確保資訊交換係在符合雙方需求與不侵害個人基本權利的情況下進行。有鑑於EMA和EMCDDA希冀藉由資源互補的強化約定,來彌補自身於精神性影響藥物和藥物濫用領域的資訊不足缺陷,是否我國在相關醫療、藥品管制或是藥品商業化資訊需有跨機關的整合機制,以促使我國在醫療、醫藥資訊交換與流通,在不侵害個人基本權利的情況下,能夠發揮互益效用,則是我國有關單位必須審慎思考的問題。
達成京都議定書減量目標 提昇能源效率比課碳稅衝擊小因應京都議定書,經濟部日前引用學界研究報告發現,我國若依議定書原則達成溫室氣體減量目標,總計需投入經費達五八七八億元至八七○八億元。為達成這項目標,政府採取提升能源效率的作法,比直接課徵碳稅,對國內經濟衝擊力道較小。 根據國際能源總署公布資料顯示,台灣CO2排放總量達二億一七三○萬公噸,人均排放量達九.八公噸,皆高於全球平均值,每單位CO2排放所創造的GDP為一.八九(美元/公斤CO2)也較OECD等先進國家平均值低。 經濟部內部歸納CO2減量效果不佳的原因,除政策上採非強制處理態度外,過去十年間,石化、鋼鐵等高耗能產業結構調整緩慢,加上半導體及液晶面板等大量使用全氟化物、六氟化硫的產業訊速成長,使得工業製程中排放的CO2等溫室氣體大幅成長更是主要原因。 依京都議定書條約精神及國際環保現況,我國與南韓同屬網要公約非附件一成員中的「新興工業國」,成為公約下一階段管制對象。致使抑制國內激增溫室氣體排放量已成為我國政府迫切須處理的課題。 在經濟部這份內部研究報告中,也引用臺灣大學農業經濟系教授徐世勳等學者的研究推估,如果台灣要達到京都議定書的要求,將CO2排放量控制在一九九○年水準,則減量成本將達新台幣五八七八億元至八七○八億元。 而學界的這項研究也針對開徵碳稅稅率不同對台灣經濟影響進行評估,推估當對每公噸CO2排放課徵六○○元碳稅時,對經濟成長衝擊為負○.六%,調高至七五○元時,所造成的衝擊則更達負○.七一%。
英國資訊委員辦公室首次對違反資料保護案件開罰英國資訊委員辦公室(Information Commissioner’s Office,ICO)於今(2010)年11月24日首次對違反資料保護案件開罰。 賀福郡理事會(Hertfordshire County Council)員工在今年6月兩度將載有高度敏感性資料的文件傳真予錯誤的收件人。ICO經調查後認定,由於賀福郡理事會未能防止兩次資料外洩事件發生,導致嚴重損害,而在首次外洩事件發生後,亦未採取足夠的預防措施避免類似情況發生,因此裁定十萬英鎊之罰鍰。 另一家發生資料外洩事件的人力資源服務公司A4e,則是因其員工將含有兩萬四千筆個人資料的筆記型電腦帶回家後遭竊,且包括個人姓名、出生年月日、郵遞區號、薪資、犯罪紀錄等相關資料並未加密。ICO認為,A4e並未採取適當措施避免資料外洩,且A4e允許其員工將未加密的筆記型電腦帶回家時,已知內含個人資料種類及數量,因此裁定六萬英鎊之罰鍰。 ICO表示,希望本次處罰能對於處理個人資料的機構有所警惕。 ICO今年4月被賦予裁罰權,至於裁罰的標準,則有裁罰指引(fine guidance)可參考。根據裁罰指引,若資料控制者(data controller)故意違反資料保護法(Data Protection Act),或可得而知可能違法之情形,卻未採取適當措施預防之,而可能造成相當損害時,ICO得處以相當罰鍰。
美國OMB發布人工智慧應用監管指南備忘錄草案美國行政管理預算局(United States Office of Management and Budget, OMB)於2020年1月發布「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」備忘錄草案。該備忘錄草案係基於維護美國人工智慧(AI)領導地位之目的,而依據美國總統川普(Donald John Trump)於2019年2月簽署之「維持美國人工智慧領導地位(Maintaining American Leadership in Artificial Intelligence)─行政命令13859號」,並在啟動美國人工智慧計畫後180天內,經OMB偕同科技政策辦公室(Office of Science and Technology Policy, OSTP)、美國國內政策委員會(United States Domestic Policy Council)與美國國家經濟委員會(National Economic Council)與其他相關機構進行協商,最後再由OMB發布人工智慧應用監管指南備忘錄草案,以徵詢公眾意見。 該備忘錄草案不僅是為了規範新型態AI應用技術,更希望相關的聯邦機構,在制定AI應用產業授權技術、監管與非監管方法上,能採取彈性的制定方向,以避免過度嚴苛的規定,反而阻礙AI應用的創新與科技發展,繼而保護公民自由、隱私權、基本權與自治權等價值。同時,為兼顧AI創新與政策之平衡,應以十大管理原則為規範制定之依據,十大管理原則分別為: 培養AI公眾信任(Public Trust in AI); 公眾參與(Public Participation); 科學研究倫理與資訊品質(Scientific Integrity and Information Quality); AI風險評估與管理(Risk Assessment and Management); 獲益與成本原則(Benefits and Costs); 彈性原則(Flexibility); 公平與反歧視(Fairness and Non-Discrimination); AI應用之揭露與透明化(Disclosure and Transparency); AI系統防護與措施安全性(Safety and Security); 機構間之相互協調(Interagency Coordination)。 此外,為減少AI應用之阻礙,機構制定AI規則時,應採取降低AI技術障礙的方法,例如透過聯邦資料與模型方法來發展AI研發(Federal Data and Models for AI R&D)、公眾溝通(Communication to the Public)、自發性共識標準(Voluntary Consensus Standards)之制定及符合性評鑑(Conformity Assessment)活動,或國際監管合作(International Regulatory Cooperation)等,以創造一個接納並利於AI運作的環境。