談美國GMO管理規範之修法趨勢-從「全有全無」到「多階分級」許可管理之制度轉換

刊登期別
第21卷,第5期,2009年05月
 

本文為「經濟部產業技術司科技專案成果」

※ 談美國GMO管理規範之修法趨勢-從「全有全無」到「多階分級」許可管理之制度轉換, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=3078&no=64&tp=1 (最後瀏覽日:2026/02/10)
引註此篇文章
你可能還會想看
為加強兒少網路安全,英國通訊管理局發布「兒少風險評估指導原則」以及「兒少保護行為準則」

為加強兒少網路安全,英國通訊局(Office of Communication)於2025年4月24日發布「兒少風險評估指導原則」(Children's Risk Assessment Guidance)以及「兒少保護行為準則」(Protection of Children Codes of Practice),以供受規範之網路服務提供者遵循。 「兒少風險評估指導原則」要求所有受《網路安全法》(Online Safety Act 2023)規範的「使用者對使用者服務」(user-to-user service)和「搜尋服務」(search service)的服務提供者,在完成兒少存取評估(children’s access assessments)確認服務有可能被兒少存取後,必須在三個月內即2025年7月24日前,完成兒少風險評估(children’s risk assessments)。 至於「兒少保護行為準則」一經國會審議通過,則自2025年7月25日起生效,服務提供者必須採取「兒少保護行為準則」規定的安全措施(safety measures),或實施其他有效手段,以減少上開風險發生的可能性。 「兒少保護行為準則」列出的安全措施包括: 一、更安全的資訊發送: 有運作推薦系統(recommender system)且存在中度或高度有害內容風險的服務提供者,應調整其演算法,確保不向兒少推播有害內容。 二、有效的年齡驗證: 風險最高的服務提供者必須使用高度有效的年齡驗證,以識別使用者是否為兒少。 三、有效的內容審查: 服務提供者應建立內容審查機制,一旦發現有害兒少的內容時,能迅速採取行動。 四、更多的選擇與支援: 服務提供者應賦予兒少更多的控制權,包括允許對內容或貼文表達不喜歡、接受或拒絕群組聊天邀請、封鎖用戶、將用戶設為靜音、以及關閉自己貼文的留言功能等。 五、簡便的舉報與申訴: 服務提供者應提供透明的舉報與申訴管道,且確保提出舉報和申訴的管道和方式對兒少而言相對輕鬆且簡單。 六、強化的治理: 服務提供者應設置負責兒童安全的專責人員,高層團隊並應每年審查兒童風險管理情況。 如服務提供者未能履行上開義務,英國通訊局可處以罰款。必要時,甚至可向法院聲請禁制令封鎖該平台。 處在網路無限擴張的時代,保障兒少網路安全絕對是重要且不容忽視的課題。英國通訊管理局發布的實施作法,非常值得我國觀察學習與參考。

世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引

  世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。

美國為遏止專利濫訟通過創新法案(The Innovation Act of 2013)

  美國眾議院今年(2013)12月5日通過創新法案(The Innovation Act of 2013,H.R. 3309),主要目的在於填補美國發明法(Leahy-Smith America Invents Act,AIA)對於遏止專利濫訟之不足。創新法案中達成立法目標之核心手段主要有以下五個方向。 1.限縮提訴要件,要求提起專利訴訟,必須說明遭侵權之商品以及遭侵權之情形,特別是針對專利侵權之因果關係的說明,以不實施專利主體(Non-practice Patents Entity,NPE)不生產製造專利產品之特性遏止其專利濫訟。 2.訴訟費用的轉移,將相關成本轉移至敗訴方,並加諸合理之賠償費用。直接以訴訟成本之轉嫁來影響訴訟意願,然而此舉是否造成真正之專利所有者保護自身專利之障礙仍須觀察個案。 3.延遲證據開示,避免證據開示過早影響判決之結果。 4.要求專利所有者持續針對所有之專利進行資訊更新,使專利所有權透明化,以揭露NPE藉由空殼公司進行濫訟之行為。 5.創新法案另試圖使專利產品之實際製造商代替消費者面對專利侵權時相關產品之訴訟。   而眾議院通過創新法案的同時,參議院也有相類似的平行立法提案,稱為專利透明化與改進法案(The Patent Transparency and Improvement Act of 2013,S. 1720)。比較參眾兩院之法案版本後,可以發現兩者立法目的以及採取的手段均類似,主要都集中在於資訊的透明化以及訴訟成本的轉嫁,試圖藉由除去專利訴訟有利可圖的情形遏止專利濫訟的現象,但是參議院版本之法案是否真的能夠達到遏止專利濫訟之情形受到各界更多的爭議。

法國資料保護機關要求Clearview AI刪除非法蒐集的個人資料

  法國國家資訊自由委員會(Commission nationale de l’informatique et des libertés, CNIL)自2020年5月起陸續收到民眾對臉部辨識軟體公司Clearview AI的投訴,並展開調查。嗣後,CNIL於2021年12月16公布調查結果,認為Clearview AI公司蒐集及使用生物特徵識別資料(biometric data)的行為,違反《一般資料保護規範》(General Data Protection Regulation,GDPR)的規定,分別為: 非法處理個人資料:個人資料的處理必須符合GDPR第6條所列舉之任一法律依據,始得合法。Clearview AI公司從社群網路蒐集大量全球公民的照片與影音資料,並用於臉部辨識軟體的開發,其過程皆未取得當事人之同意,故缺乏個人資料處理的合法性依據。 欠缺保障個資主體的權利:Clearview AI公司未考慮到GDPR第12條、第15條及第17條個資主體權利之行使,特別是資料查閱權,並且忽視當事人的個資刪除請求。   因此,CNIL要求Clearview AI公司必須於兩個月內改善上述違法狀態,包括:(1)在沒有法律依據的情況下,停止蒐集及使用法國人民的個資;(2)促進個資主體行使其權利,並落實個資刪除之請求。若Clearview AI公司未能於此期限內向CNIL提交法令遵循之證明,則CNIL可依據GDPR進行裁罰,可處以最高 2000萬歐元的罰鍰,或公司全球年收入的4%。

TOP