美國眾議院於2016年4月27日一致同意通過支持電子郵件保護及雲端隱私法案(Email Privacy Act, EPA),本法案之後將會要求執法部門於搜查電子郵件或儲存於雲端設備的資料時,必須向法院取得搜查令,才能取得超過180天以上的資料。
本法案係針對1986年推出的《電子通信隱私法(Electronic Communication Privacy Act, ECPA》進行補強,因為目前科技的進步,早已遠超過ECPA是在網路興起前所得規制的範圍,在當初ECPA法案訂定之初,人民仍有定期刪除E-mail以保持硬碟空間的習慣,但相較於現在多數人都已使用雲端信箱的習慣下,如仍能讓警方等恣意調查任何人的信箱,往往可取得巨量的消息,因此本次的修正可預期將更能使相關規範符合時宜需求。
本次修正重點如下:
1.過往之ECPA規定要求聯邦機構在調查超過180天的電子郵件時只需要取得傳票即可,現在則是需要取得搜查令。
2.要求政府機構必須先取得法院的搜查令,才可以要求供應者揭露其保有之資訊。
3.要求執法部門應於取得資料的10天內向資料被揭露者提供相關證明,如涉及政府單位者則縮短至3天。
雖然EPA在眾議院內獲得美國兩黨的一致通過,但仍須經參議院下一波的投票表決,才能決定本案是否得順利通過。
美國麻薩諸賽州州長 Mitt Rom-ney 在五月二十七日否決一項允許在麻州擴大胚胎幹細胞試驗研究法案。州長支持使用成年人的幹細胞或從治療不孕症診所剩餘冷凍胚胎提取細胞的研究,但他呼籲州議員禁止複製,因為提取幹細胞會摧毀胚胎。他說,這相當於創造人類生命只是為了摧毀它,在道德上不具有合理性。此外,他還呼籲州議員在法案中增設一項條款,規定懷孕那一刻即為生命開始,禁止為了其他研究製造胚胎,並限制給捐獻卵子婦女的補償,但州議會拒絕他了的所有這些要求。該州參眾兩會在同月三十一日以壓倒性的票數,推翻州長先前在二十七日所為之否決,並使該法案立即生效。 根據舊州法,若麻州科學家想進行胚胎幹細胞研究,必須獲得地區檢察官批准。新法實施後,科學家不需等待地區檢察官同意後才能進行研究,但州衛生廳將有權管制過程。除此之外,這項新法和聯邦法一樣,禁止複製嬰兒。 美國各州對幹細胞研究的態度迥異,甚至可以說處於分裂狀態。有七個州禁止任何複製研究,十一個州禁止幹細胞研究。但是,加州在二○○四年率先透過法案支持胚胎幹細胞研究,還計劃在十年內從州預算中撥款三十億美元資助這項研究。麻州緊隨其後。紐約、康涅狄格、賓州等也準備放寬對幹細胞研究的限制。 支持胚胎幹細胞研究者紛紛希望,麻州能成為治療脊椎受傷和糖尿病、柏金森氏症等疾病的科學先進研究中心。
93年國人申請發明專利數量大幅成長28.39﹪ 創新研發成果明顯躍進93年專利申請統計資料顯示我國受理專利申請案總數、發明申請案數量、及國人發明申請案等指標,均呈現相當幅度成長,顯示我國過去幾年官方與民間投資創新研發成果有明顯成長。 93年專利、商標申請與核准統計出爐,全年專利新申請案件總數72,105件,較92年的65,742 件增加6,363件(9.68﹪),本國人申請案43,038件,外國人29,067件。其中屬技術強度較高的發明申請案件總數計41,930件,較前一年增加6,107件(17.05﹪);本國人發明申請案16,754件,較前一年大幅增加3,705件(28.39﹪),顯示我國產業研發技術成果有向上提昇的趨勢。93年專利發證數66,415件,比92年大幅增加24,333件(57.82﹪),此係因93年7月專利法修正實施,新型專利改採形式審查,縮短專利審查時程,及專利廢除異議制度改採繳費後公告同時發證的制度轉換短期影響。 93年商標申請案依類別統計為72,650件,比92年申請案件數65,907件,增加6,743件(10.23﹪),;93年商標公告註冊案計54,912件,較前一年74,572件減少19,660件(-26.36﹪);依類別計55,986件,均較前一年減少。不論是在申請或公告註冊數都是以本國人佔絕大多數。商標申請於92年底開始實施一申請案多類別制度,不同類別毋需另提出一獨立申請案,因此依類別統計數會比申請案件數多。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。