美國創新戰略(A Strategy for American Innovation)於2009年9月首次提出,後於2011年2月配合時事及產業發展增補內容。隨著政策的逐步推行,美國國家經濟委員會及白宮科技政策辦公室於2015年10月公布最新版本之美國創新戰略,在原有的框架增補更多內容成為六大重要施政要項,在策略佈局上又大致可分為創新資源整合的三大創新基礎以及三大策略發展方向,前者包括:(1)投資創新基石;(2)刺激私部門進行創新活動;(3)營造一個創新者國度。後者的三大策略發展方向則包括國家產業重要優先發展領域的技術突破,其影響意味著確定重點投資領域能夠取得變革性結果,以滿足國家和世界所即將面臨的社會議題挑戰。其中諸如精準醫療(precise medicine)、加速發展新型神經技術、推動衛生保健的突破性創新、採用先進車輛減少死亡事故、建設智慧城市、推動再生能源技術提高能源效率、開發先進教育技術、發展太空科技等。 其次,係藉由投資未來產業,建設包容性創新經濟,加強美國先進制造的領先地位,創造工作機會和經濟的持續成長。最後,借助於人才、創新思維及技術工具的適當組合,建設創新型政府,為民眾提供更好的行政服務。
美國國家標準技術局(NIST)更新電子簽章標準美國國家標準技術局(National Institute of Standards and Technology, NIST)於近日(2013年7月)更新電子簽章的技術標準「FIPS (Federal Information Processing Standard) 186-4數位簽章標準」,並經商務部部長核可。NIST於1994年首次提出電子簽章標準,旨在提供工具可資促進數位時代的信賴性,後續也隨著技術進步與革新,而有多次修訂。此次修訂,主要是調合該標準,使之與NIST其他加密相關指引(如金鑰加密標準)一致,以避免將來可能產生的矛盾。 此次增訂,亦明列出三種可保護資料的簽章產製與確認技術:數位簽章演算法(Digital Signature Algorithm, DSA)、橢圓曲線簽章演算法(Elliptic Curve Digital Signature Algorithm, ECDSA)、以及RSA公眾金鑰演算法(Rivest-Shamir-Adleman Algorithm, RSA)。 其他修訂的部分,還包括語彙的明晰化,以及降低對於隨機號碼產生器的利用限制…等。
奈米產品蘊藏健康風險,其管理應更慎重許多天然或人造的成分被奈米化之後,物理和化學性質可能都會改變,今年三月底,在德國即出現一起疑似因為使用奈米科技製造的廁所清潔噴霧劑「魔術奈米」,陸續出現嚴重呼吸問題,被送往醫院診治,其中六人還因肺水腫住院的案例,可見奈米級產品的安全性應有更為審慎之把關。 在各式奈米級產品中,「添加顏料、金屬和化學藥劑,是奈米化妝品與保養品對人體健康的最大變數!」美國 FDA 規定, 1 到 100 奈米( nm )微粒的保養品、化妝品都算是奈米產品,用來防曬的二氧化鈦是最常被添加的金屬成分,傳統粗顆粒的防曬用品,利用二氧化鈦擋住紫外線傷害皮膚,但鈦成分變成超細微粒,進入皮膚底層後會不會沈澱、累積,衍生皮膚癌、中毒或過敏病變?或經由血液沈積在內臟?目前都沒有具公信力驗證單位可以說明。各式化妝品調色的顏料,以及美白等用途的化學藥劑也被奈米化,對塑造時下流行的「裸妝」效果,確實很有幫助,不過,一旦這些化學製成的奈米微粒粒徑小於 50 到 80 奈米,也就是小於角質細胞的間隙,就會對皮膚造成傷害。至於奈米化的蜜粉和粉餅,可能因為撲粉過程把奈米微粒吸入肺部,產生呼吸道病變,甚至有致命危機。因此,許多學者均強烈主張,化妝品、保養品要上市販售之前,必須完成醫學上的病理實驗,不要把人當白老鼠。 生活中已經有多種產品以奈米化之形式推出,例如:保養品、化妝品奈米化的速度很快,許多製造商推出的新保養品均號稱含有奈米微粒,可深入肌膚,達到防皺、除皺功效。但是,英國皇家學會和美國食品藥物管理局( FDA )相繼表示,醫學界對奈米微粒與肌膚相互作用的知識還相當貧乏,除了深入肌膚的功效有待驗證外,更要注意這些奈米微粒是否會對血液產生長期的影響。 奈米科技是否會步上基因改造食品的後塵,成為消費者對新科技存疑之另一項技術,值得注意。奈米科技在風險未被證實前,業者腳步走太快,而政府完全放手不管,一旦出現意外事故,就可能把這項新科技給毀了。故要求主管機關要有所作為呼聲已經陸續出現,繼英國皇家學會最早投入相關之健康風險研究後,美國消費者團體亦透過 petition 機制,要求 FDA 加強對奈米級產品之管理。
歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。