拜登政府於2023年5月4日宣布將採取促進負責任AI創新之新行動,表示公司於部署或公開其產品前,應致力於降低AI風險,並強調風險管理與保障措施的重要性,以防止AI對個人與社會造成潛在危害。此外,拜登總統於2月簽署「透過聯邦政府進一步推動種族平等和支持弱勢群體」行政命令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government),指示聯邦政府機關在設計和使用AI等新技術時,應避免偏見,並保護公眾免受演算法歧視。促進負責任AI創新之新行動包括:
一、投資負責任AI的研發
美國國家科學基金會(National Science Foundation)宣布撥款1.4億美元以啟動7個新的國家AI研究所,未來全美將有25個國家級AI研究所。除有助於促進公私部門之間合作外,將強化AI研發基礎設施、支持多元化AI勞動力發展,及推動氣候、農業、能源、公共衛生、教育與資安等關鍵領域之突破。
二、公開評估現有的生成式AI系統(generative AI systems)
Anthropic、Google、Hugging Face、微軟、NVIDIA、OpenAI和Stability AI等領先AI開發商將參與AI系統獨立公開評估,以評估其模型是否符合AI權利法案藍圖(Blueprint for an AI Bill of Rights),及AI風險管理框架(AI Risk Management Framework)所提出之原則與實踐,並使企業及開發人員能就所發現問題,進一步採取解決措施。
三、提出政策引導聯邦政府減輕AI風險及提升AI利用機會
美國行政管理預算局(Office of Management and Budget)宣布,將於2023年夏季發布有關聯邦政府機關各部門使用AI系統之政策指引草案,並徵詢公眾意見。
美國奧克拉荷馬州修正《個資事故通報法》,擴充個資定義範圍並強化通報機制 資訊工業策進會科技法律研究所 2025年07月22日 現行我國關於非公務機關就個資事故進行通報之規定,散落於各中央目的事業主管機關制定之各業別個人資料檔案安全維護管理辦法或相關辦法中,且前揭各辦法對於通報之標準不盡相同。各國主管機關紛紛強化個資治理法制,而美國奧克拉荷馬州修正關於個人資料定義、適當防護措施及個資事故通報機制等事項,以建立更完善之規範。 壹、事件摘要 美國奧克拉荷馬州議會業於2025年5月20日通過第626號法案(Senate Bill 626)[1],修正《個資事故通報法》(Security Breach Notification Act)[2],其目的係為補充現行治理規範之不足,修正重點涵蓋:擴充法定用詞之定義,針對「個人資料」(Personal Information)與「適當防護措施」(Reasonable Safeguards)等條文予以補充與增列;強化個資事故(Breach of the security of a system)之通報機制與設立豁免條款,並釐清與其他法規間之適用關係;以及修訂違法情事之民事裁罰。此外,本次修法亦明定,若機構或個人已採取適當防護措施,得作為民事訴訟中之抗辯理由。本法將自2026年1月1日起正式生效,並適用於自該日起所發現、判定或通報之個資事故,相關單位應即早進行法遵準備,以確保制度落實。 貳、修法重點 本次修法主要包含三大核心面向,簡要說明如下: 一、擴充法定用詞之定義 (一)個人資料 於現行法規對個人資料之定義下,再增加新資料類別: 1.與驗證碼、存取碼或密碼結合使用時,可用以登入特定個人金融帳戶之專屬電子識別碼(Electronic Identifier)或路由代碼(Routing Code); 2.用以辨識特定自然人之獨特生物特徵資料,例如指紋、視網膜或虹膜影像,或其他具體實體或數位形式之生物辨識資料。 (二)適當防護措施 適當防護措施係指,為確保個人資料安全而考量組織或機構之規模、產業別、以及保有之個資類別與數量所制定之政策及作業實務。此概念包括但不限於:進行風險評估、建立技術面及實體面之多層次保護機制、對人員實施教育訓練,及建立個資事故應變計畫等。 二、強化事故通報機制與設立豁免條款 本法要求於發現系統個資事故並已通知受影響之當事人後,應於60日內向州檢察總長(Attorney General)提交書面通報,載明涉及之個人資料類別、事故性質、受影響人數、預估之財務損失、所採行之適當防護措施等必要內容。惟若事故影響人數低於500名州民,或事故發生於徵信機構且影響人數未達1,000人,則可免除向檢察總長通報之義務。 此外,本法明確規範,若特定機構已依據其他法律,如《奧克拉荷馬州醫療資安保護法》(Oklahoma Hospital Cybersecurity Protection Act of 2023)或聯邦《健康保險可攜及責任法》(Health Insurance Portability and Accountability Act of 1996)等履行相關通報義務,則視為已符合本法之要求。 三、民事裁罰 本法明定,民事罰鍰之裁量將審酌事故規模、事故發生後組織之因應作為及是否履行事故通報義務等因素而定,以確保裁量之比例原則。裁量情形說明如下: 1.若機構已採行適當防護措施且依法進行事故通報者,得免除民事責任; 2.若未採取適當防護措施,惟仍依規定完成事故通報者,則須負擔實際損害賠償責任並處以最高75,000美元罰鍰; 3.未落實適當防護措施與事故通報法定義務者,最高處以150,000美元罰鍰。 參、事件評析 本次修法可見奧克拉荷馬州就數位時代資安威脅所採行之積極因應作為,其修正重點包含:擴充個人資料之定義並明定適當防護措施之內容,俾利降低企業法遵成本及法律適用之不確定性;強化事故通報機制並設置合理豁免條款,以確保資訊透明度;於罰則規範中明定民事罰鍰之裁量,應審酌事故規模及是否履行事故通報義務等因素,以符合比例原則。 有鑑於本法修正後所課予之法定義務,建議企業應採行下列因應措施:(1)全面盤點所保有之個人資料,尤應注意新增納管之電子識別碼及生物特徵等資料;(2)檢視並強化現有防護機制,確保符合適當防護措施之要求;(3)建立標準化通報應變程序;(4)強化教育訓練。此外,企業宜定期檢視法規動態,以確保持續符合法規要求。 [1] Bill Information for SB 626, OKLAHOMA STATE LEGISLATURE, http://www.oklegislature.gov/BillInfo.aspx?Bill=sb626&Session=2500 (last visited June 1, 2025). [2] BILL NO. 626, OKLAHOMA STATE LEGISLATURE, https://www.oklegislature.gov/cf_pdf/2025-26%20ENR/SB/SB626%20ENR.PDF (last visited June 2, 2025).
醫療器材審核制度仍有爭議 歐洲議會延後表決時程在歐盟發生了諸如法國隆乳植入物醜聞(PIP scandal)以來的諸多事件後,歐盟醫療器材審核制度的革新更顯得刻不容緩。然而,歐盟執委會提案修正過往歐盟對於醫療器材之相關規範,強化市場化前(pre-market)的審核機制,引起了各界不同的意見,因此本年七月初,歐洲議會決定延後新指令修正案的表決至9月,以爭取時間取得各成員國代表間的共識。 為強化對於患者健康的保障,歐盟執委會(European Commission)於2012年提出醫療器材規則修正案(Proposal for a Regulation of the European Parliament and of the Council on medical devices),並包括對2001/83號指令等(Directive 2001/83/EC, Regulation (EC) No 178/2002 and Regulation (EC) No 1223/2009)的修正,已建立更完善的歐盟醫療器材管理機制。其中包括歐盟統一而集中的審核程序,此舉卻引起不同意見,認為過於科層化(bureaucratic)的市場化前審核制度設計,將阻礙研發且不見得對病患有利。有歐洲議會議員指出,現行制度雖有進化的必要,然集中化(centralisation)的審核工作,對於行政負擔的加重,或許不如先在各國家層級的管理機制進行強化。而歐盟醫療器材產業界也認為,集中統一化的審核機制,將會對於中小型研發企業造成衝擊,間接影響歐盟醫材類技術領域的科技研發,業界認為,新法案對於所謂對患者具有高風險第三類醫療器材(Class III devices)的審核,將使得患者延遲3至5年才能得到可以拯救其性命的產品,相對地卻沒有得到甚麼安全的提升。 七月初,歐洲議會公共健康與食品安全委員會(Public Health and Food Safety Committee, ENVI)決議將推遲法案表決至9月18日,屆時表決的結果,將主導未來歐盟醫療器材管理的主要方向。
因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。
微軟,摩托羅拉兩度正面交鋒專利訴訟微軟與摩托羅拉移動(谷歌旗下公司)將展開第二次關於智慧型手機及其他技術的專利侵權訴訟之審判。 這場陪審訴訟將於周一在西雅圖舉辦,主要將解決“摩托羅拉是否違反以非合理的條款授權微軟在Xbox遊戲機中無線和視訊技術領域所使用的標準必要專利(standard essential patents)。 去年11月,兩科技公司進行第一次大對決,確認了微軟應支付給摩托羅拉使用其專利技術的費用。經過5個月的審議後,美國地方法院James Robart審判法官裁定給微軟優惠方案,其建議每年支付約略180萬美元的費用給摩托羅拉,雖超過微軟所估算的100萬美元,但仍遠低於摩托羅拉原提出的40億美元的要求。 微軟依據過去的文件資料表示,微軟過去已表示支付給摩托羅拉680萬美元的權利金,但摩托羅拉拒絕這筆權利金的費用。 面對即將到來的訴訟案,微軟將主張摩托羅拉原先所提出的需求屬不合理要求,已違背其費用主張的合理和不帶歧視性的條款(reasonable and non-discriminatory terms)協議。 合理和不帶歧視性的條款(reasonable and non-discriminatory terms),一般稱為“RAND“,其條款主要是為了防止擁有標準必要專利之公司,透過專利龔斷市場,使用不合理的競爭手法,造成其他競爭對手的傷害。