RFID應用發展與相關法制座談會紀實

刊登期別
2004年11月
 

※ RFID應用發展與相關法制座談會紀實, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=777&no=57&tp=1 (最後瀏覽日:2026/04/04)
引註此篇文章
你可能還會想看
英國將以NHS基因體醫學服務續行十萬基因體計畫

  英國政府所提出的「10萬基因體計畫(100,000 Genomes Project)」將於2018年底達成目標,而將以NHS基因體醫學服務(NHS Genomic Medicine Service)作為續行計畫,以促進個人化醫療的發展。   NHS基因體醫療服務的目的在於促進罕見疾病與癌症的診斷以及患者治療的效率,並預期在未來5年達到五百萬組基因定序,以提供具備全面性(comprehensive)以及公正性(equitable)的基因檢測。為達此目的,NHS基因體醫療服務包含5個主要內涵:連結基因體研究中心以成立國家基因體實驗室服務(national genomic laboratory service)、新的國家基因體實驗室檢測文庫(new National Genomic Test Directory)、全基因體定序的相關規範,並與英國基因體公司(Genomic England)合作開發資訊基礎設施(informatics infrastructure)、臨床基因體醫學服務(clinical genomics medicine services)以及發展基因體醫學中心服務(Genomic Medicine Centre service)、NHS負擔統合性的監管職責。   在以NHS基因體醫療服務作為續行計畫的狀況下,若合格的研發人員欲以患者的基因資料進行新藥或是新治療方式的開發需事先取得患者的同意。另外,從2019年開始,全基因定序將被納入特定患者的治療過程中,如罹患特定罕見疾病或具有治癒困難性的成年患者以及所有患有嚴重疾病的孩童患者,以加速疾病的診斷以及減少侵入性治療的次數。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

OECD發布《支持綠色創業的政策:在丹麥建立綠色創業中心》報告

  經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)於2022年6月13日發布《支持綠色創業的政策:在丹麥建立綠色創業中心》(Policies to Support Green Entrepreneurship: Building a Hub for Green Entrepreneurship in Denmark)報告,以協助丹麥落實強化綠色創業生態系之倡議。   「綠色創業」一詞雖常見於學術文獻及政策文件,卻無明確統一之定義。本報告所採之定義為:「由新創公司發展及採用綠色產品、服務及製程。」所謂綠色,係指以「減少或防止任何形式的環境破壞、減少汙染物及廢棄物排放,或具有同等品質與效益但卻更節約資源」的方式為之。本報告評估丹麥的綠色創業狀況及政策建議,摘要如下: (一)丹麥綠色創業生態系現況 1.丹麥在綠色創業上是成熟的全球參與者,惟尚非全球樞紐。依2022年Startup Genome全球創新生態系報告,歐洲有12個潔淨技術(Cleantech)的新創生態系排名高於哥本哈根。 2.丹麥在環境技術領域之新創公司就業人口高於一般新創公司平均就業人口,但其規模擴大率則低於一般公司平均規模擴大率,顯示丹麥的綠色新創企業在擴大營運規模上遭遇困難。 3.相較於英國及瑞典等歐洲國家,丹麥的創投市場規模較小。融資管道的不足,可能成為影響丹麥綠色創業成長的原因之一。 (二)丹麥綠色創業政策藍圖 1.透過一系列融資工具提供綠色創業財務支持,如丹麥綠色投資基金(Danish Green Investment Fund)、丹麥成長基金(Danish Growth Fund)、丹麥創新基金(Innovation Fund Denmark)等。 2.國家級的丹麥能源創育聚落(Energy Cluster Denmark)與民間創新中心CLEAN共同橋接丹麥研發機構與企業進行合作。 3.更多且更廣泛之企業支援措施,如六個區域商業中心、Virksomhedsguiden入口網站、育成中心及加速器網路(如Beyond Beta)等。 (三)丹麥核心政策建議 1.發展整合公私部門之綠色創業策略,並追蹤綠色創業相關案例,作為未來制定政策之依據。 2.發展綠色創業的一站式平台,提升可供利用服務的能見度。此類服務可進一步引導綠色創業,包括明確區分開發新的或實施現有的綠色解決方案,以展現對綠色創業的支持。 3.加強對專業育成中心及加速器等既有政策的支援。

歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題

  歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。   指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。   指引的主要內容包括:   個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。   禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。   GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。   工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。   對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。   「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。   工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。   在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。

TOP