以色列BATM公司研發出Skype整合性軟體-KishKish,未來將提供消費者以付費的方式使用測謊功能。此軟體係透過分析談話者聲音中的緊張程度,告知軟體使用者「對方是否說謊」。如此一來,使用者便可透過軟體分析出來的指示,而即時修正詢問的問題。據說,美軍已開始運用此套軟體! 雖然KishKish的使用如此便利,但是根據英國專家表示,網路使用者若不當使用KishKish,將可能違反「資料保護法」(Data Protection Act)而負擔民事責任,甚至還可能涉及「調查權規範法」(Regulation of Investigatory Powers Act,RIPA)將被處以兩年以上有期徒刑或科以罰金。 至今,Skype仍尚未公布其價格及發布日期。
美國眾議院通過綠色化學研發法案美國眾議院本(9)月通過「2007年綠色化學研究發展法案」(The Green Chemistry Research and Development Act of 2007),其目的在要求總統建立「綠色化學研究發展計畫」(Green Chemistry Research and Development Program),統籌改善聯邦政府對於綠色化學研發、教育宣導及技術移轉等活動之資源投入,而綠色化學則是指那些依安全與有效生產程序製造高品質產品時、能減少使用或產生毒性化學物質之化學產品或製程技術。美國化學協會(American Chemical Society)讚許眾議院通過本法案是睿智的舉動,表示發展綠色化學最能證明經濟和環境得同時併進,發展綠色企業實務,改善藥學加工及本土營建產業以迎刃氣候變遷及能源危機等挑戰。 本法案並要求自明(2008)年起,編列經費由以下政府單位合作執行本計畫,即國家科學基金(National Science Foundation)、國家標準技術研究院(National Institute of Standards and Technology)、能源局(Department of Energy)及環保署(Environmental Protection Agency)。參議院在過去兩屆都通過類似的法案,尚等待參議院支持通過相同法案,以獲得生效。 為減低對石化原料的依賴、發展生物經濟,美國政府積極投入促進綠色科技、生質科技之研發活動,例如從農林廢棄物或副產品或其他來源開發再生性原物料供綠色化學使用。此外,美國政府亦資助建立了生質(biomass)能源及產品的網路圖書館(BioWeb);BioWeb所收錄的生質科技資訊、文獻,許多都是來自大學或國家實驗室著名研究人員,都會先經各領域專家進行嚴格的同儕審查(peer-review),再開給所有公眾瀏覽;BioWeb將會持續蒐羅各種基礎及應用科學知識,並擴充各種經濟及政策相關資訊。BioWeb的理想目標,是擴大規模成為最大最有價值的生質燃料、能源及產品公共資料庫。
澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。
美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。