美國為加強聯邦補助生物科研之安全性而提出新規範

刊登期別
第27卷第2期,2015年02月
 
隸屬計畫成果
經濟部技術處產業科技創新之法制建構計畫成果
 

※ 美國為加強聯邦補助生物科研之安全性而提出新規範, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6807&no=64&tp=1 (最後瀏覽日:2026/02/06)
引註此篇文章
你可能還會想看
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)

2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

英國科學辦公室發布分佈式分類帳技術報告,提出八大建議

  2016年1月, 隸屬英國商業、創新和技術部 (Department for Business, Innovation and Skills,BIS)的科學辦公室(Government Office for Science)發布「分佈式分類帳技術:區塊鏈以外(Distributed Ledger Technology:beyond block chain)」研究報告。本篇報告由產官學界合作完成,主要在評估分佈式分類帳技術可以運用在哪一些公私領域,並決定政府以及私人應該採取哪些行動以促進分佈式分類帳技術可被有益運用,並避免可能帶來的傷害。   該份研究報告認為,分佈式分類帳技術可在多個領域協助政府機構,包含徵稅、提供福利、發行護照、土地登記、確保商品供應鏈並且確保政府記錄與服務的完整性。相較於其他網路系統,分佈式分類帳技術較不易受駭客攻擊,而且由於每個参與者都有一份帳簿副本,如果有惡意竄改的狀況,也可以輕易被發現,但這不表示分佈式分類帳技術就不會被駭客攻擊。   數位五國(Digital 5,D5)之一的愛沙尼亞,已多年實驗運用分佈式分類帳技術於公領域服務多年。愛沙尼亞政府透過私人公司運用分佈式分類帳技術建制「免金鑰簽名設施(Keyless Signature Infrastructure,KSI)」,KSI允許愛沙尼亞公民驗證其在政府資料庫資訊的完整性,並避免內部人透過政府網路從事非法活動。KSI確保公民資訊安全以及準確,因而可協助愛沙尼亞政府提供數位化的公司登記以及稅務服務,減少政府以及社會大眾的行政作業負擔。   除此之外,分佈式分類帳技術也有助於確保商品以及智慧財產權的所有以及出處。例如Everledger此一系統可用於確保鑽石的身分,從礦產、切割到銷售,可減少並避免欺詐以及「血鑽石」進入市場。   簡而言之,分佈式分類帳技術提供政府可減少詐欺、腐敗、錯誤以及紙上作業成本的框架,並透過資訊分享、公開透明以及信任,具有可重新定義政府與公民關係的潛力。對於私領域而言也具有同樣可能性,報告特別提出可透過分佈式分類帳技術發展「智慧契約」,可增加信任度並提高效率。據此,本報告針對政府部門提出八大建議: (1) 應成立專責部門,並與產業、學界緊密合作,並應考慮成立臨時性的專家諮詢團隊。 (2) 英國的研究社群應該要投入研究確保分佈式分類帳技術具備可即性、安全性以及內容準確性。 (3) 政府應支持為地方政府成立分佈式分類帳技術實地教學者,匯聚所有測試技術以及其運用的所需元素。 (4) 政府需要思考如何為分佈式分類帳技術建立妥適的法制框架。法規需要配合新科技應用技術的發展而進步。 (5) 政府應該與產學合作確保相關標準可以符合分佈式分類帳技術及其內容完整性、安全性以及隱私的需求。 (6) 政府應與產學合作確保最有效率以及最可用的身分認證網路協議可為個人及組織所使用,這項工作應與國際標準的發展與執行緊密連結。 (7) 政府應對分佈式分類帳技術進行試驗,以評估該項技術在公領域的可行性。 (8) 建議成立跨部門的利益群體,結合分析以及政策群體,以生成並發展潛在使用案例,並且在公民服務中提供具備知識的專家人員。   除了八大建議,管理與法制上,本報告指出分佈式分類帳技術具有兩種管理規範:法律規範以及技術規範。法律規範是「外部」規範,法律規範可能會被違反,緊接著面臨違法處罰的問題。技術規範是「內部」規範,假如違反技術規範,「錯誤(error)」產生無法運作,因此「規範」本身就可以確保會被遵循。換句話說,技術規範可以節省法律規範的執法成本。另外一方面,分佈式分類帳技術為去中心化技術,如果要以法制管理,也只能在参與者身上施加法律義務,例如Bitcoin,只能對於提供Bitcoin交易服務的平台施加法律義務。美國紐約州金融服務部所發行的比特幣交易執照BitLicnese即為一例。因此,基於去中心化的特性,報告建議政府單位應該要儘量参與技術標準的制定,並且配合技術標準制定相關法律,法律規範與技術規範兩者應該要交互影響。

歐洲自律聯盟成立以塑造對兒童更好的網路環境

  如何確保兒童上網安全,為歐盟數位議程(Digital Agenda)的七大目標之一。而近年來網路內容蓬勃與快速發展,更大幅加速了兒童上網的趨勢。據歐盟執委會於2011年12月的公開資料顯示(IP/11/1485),歐洲兒童平均7歲即開始接觸網路。目前有超過38%的9-12歲兒童在社交網站上有個人資訊,有30%以上的兒童是藉由行動裝置上網。如此高的上網比率,讓各業者有共識以提供兒童更好的上網環境。由蘋果、微軟、Google等跨國企業為首的二十餘家業者組成了自律組織,以提供歐盟地區的兒童更好網路內容環境而努力。   該自律聯盟於2011年12月正式成立,並以五個面向採取相關行動:簡單且強大的工具-能夠搜尋於任何裝置上可能對孩童有害的內容;分齡隱私設定-使用者可限定公布資訊予特定族群;更廣泛的內容分級:提供家長易於理解的年齡內容分級;更廣泛的家長控制工具-積極推動使用者有善的工具;兒童色情內容有效移除-與執法單位與保護熱線等積極合作,將兒童色情內容快速下架。   各業者承諾就其營業項目、產品、服務內容等皆須符合此自律規範,並成立工作小組以協助歐盟執委會處理相關議題。

TOP