優質網路社會基本法之推動芻議

刊登期別
第241期,2006年04月11日
 

※ 優質網路社會基本法之推動芻議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=1883&no=64&tp=1 (最後瀏覽日:2026/04/24)
引註此篇文章
你可能還會想看
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

美國參眾兩院提出嚴禁專利藥廠簽訂授權學名藥協議系列法案

  美國過去透過Hatch-Waxman Act之立法,建立起「簡易新藥申請」(Abbreviated New Drug Application,ANDA)制度,促使學名藥廠開發學名藥後,能較迅速地通過藥品查驗登記,且首家獲得ANDA上市許可的學名藥廠還可享有180日的市場專屬保障;但是,專利藥廠近年卻設計出授權學名藥(Authorized Generic Drug)、原廠學名藥(Rebranded Generic Drug)和專利與學名藥訴訟和解協議(Brand-Generic Litigation Settlement)等智慧財產權管理策略,用以瓜分專利到期後的學名藥市場。   為了矯正此種實務發展,今(2007)年初美國參眾兩院先後提出內容一致的「公平處方藥競爭法案」(Fair Prescription Drug Competition Act, S.438)和「修正聯邦食品藥品化妝品法禁止授權學名藥上市法案」(To amend the Federal Food, Drug, and Cosmetic Act to prohibit the marketing of authorized generic drugs, H.R.806),禁止專利藥廠自行或間接製造銷售原廠學名藥,或是授權第三人製造銷售授權學名藥,企圖透過立法方式,確保首家提出ANDA的學名藥廠,在其所獲180日市場專屬期間內,不會因專利藥廠利用推出原廠或授權學名藥之策略而稀釋掉該學名藥的市佔率。但本法案未禁止專利藥廠與獲得市場專屬保護的學名藥廠簽訂類似協議;假使該學名藥廠經商業判斷後寧願與專利藥廠簽訂協議,僅需依現行規範將該協議通報FTC和司法部即可。   美國參議院亦提出「保護可負擔學名藥取得法案」(Preserve Access to Affordable Generics Act, S.316),禁止專利藥廠直、間接簽訂給予ANDA申請者任何對價(不限金錢)且要求其不得研發、製造、銷售或販賣該學名藥之專利侵權訴訟和解協議;例如專屬給付和解協議(Exclusion Payment Settlement)、逆向給付和解協議(Reverse Payment Settlement)等。

加拿大隱私專員呼籲提升加拿大人在美國之隱私保護

  加拿大隱私專員表示,其國人在美國雖享有一些隱私保護,但該保護主要係依賴不具法律效力之行政協議,因而相當脆弱。   隱私專員Daniel Therrien在一封致加拿大司法部長、公共安全部長及國防部長的公開信中,請求加拿大政府官員們向其對口之美國政府部門,要求藉由將加拿大列入美國國會去(2016)年通過之「司法賠償法案(Judicial Redress Act of 2015)」指定國家清單,以強化對其國人之隱私保護。隱私專員並表示,國人關切並請加拿大隱私專員辦公室(OPC)針對美國總統唐納.川普(Donald John Trump)所發布之行政命令進行影響評估,因其將排除非美國公民及合法永久居民隱私權法中關於個人可資識別資料之保護。   倘若加拿大能如同歐洲聯盟(European Union)及26個歐洲國家一般,於今年初時被列入前述指定清單,則其公民即可透過美國法院之強制執行,獲得隱私保障。此外亦可同時強化行政協議,如:美加邊境安全行動計劃(Canada-U.S. Beyond the Border Action Plan)及其聯合隱私聲明原則(Joint Statement of Privacy Principles)給予加拿大人之保護。   聯合隱私聲明原則涵括12項,其重要者有: 1.善盡一切合理努力,確保個人資料之正確性,以及後續請求查閱及更正錯誤之權利。 2.個人資料適當安全維護措施。 3.蒐集個人資料之相關性及必要性。 4.當事人認為其隱私受侵害時,得受繼有國家當局之賠償。 5.公務機關之有效監督。   縱算美國隱私權法自始即從未適用於加拿大人,且前開行政命令亦未改變現況,該命令仍突顯出「在南邊境上對加拿大人個人資料保護的顯著差距」。 「作為一個長期盟友以及密切的貿易夥伴,加拿大應要求被給予和那些經指定列入清單之歐洲國家相同程度之保護。」

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

TOP