部落格及其法律問題之初探

刊登期別
第19卷,第04期,2007年04月
 

※ 部落格及其法律問題之初探, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2253&no=67&tp=1 (最後瀏覽日:2026/05/06)
引註此篇文章
你可能還會想看
美國有限合夥發展於我國之借鏡

歐盟將推出「數位綠色證書」,促進疫情期間成員國內人員之安全入出境

  為防止新冠肺炎之傳播,欲入境歐盟的旅客被要求提供各式健康證明文件,然而在判斷該文件的真實性時,缺乏標準化的格式,導致旅客在入出境歐盟時產生各種問題,也容易產生欺詐或偽造文件的風險。為解決上述問題,歐盟委員會於2021年3月17日表示將推出「數位綠色證書」(Digital Green Certificate),證書分為三種,分別是:「已接種新冠肺炎疫苗證書」、「新冠肺炎檢測結果呈陰性證書」及「已從新冠肺炎痊癒證書」。透過綠色數位證書,希望能解決歐盟在疫情期間,各成員國人員入出境之安全問題。此證書預計將於所有歐盟成員國間通用,並對冰島、列支敦斯登、挪威和瑞士開放。   證書將免費以數位或紙本兩種形式提供,證書上之QR碼中將包含旅客必要個人資訊:姓名,出生日期,簽發日期,有關疫苗、檢測、恢復等等,並含有數位簽名,以確保證書之真實性及安全性。歐盟委員亦將成立一項計畫,使成員國開發特定的驗證軟體,以驗證某證書是否為歐盟所核發。   數位綠色證書不具強制性,將由成員國各自決定具體執行措施,且各成員國對持有數位綠色證書之旅客應公平待之,例如:成員國若接受某非數位綠色證書之疫苗接種證明而得免除某些檢疫或隔離,在相同條件下,成員國亦應接受數位綠色證書發出之疫苗接種證書而同樣免除該項檢疫或隔離。然而,歐盟目前僅接受下列四種被歐盟許可之疫苗:輝瑞(BioNTech Pfizer)、莫德納(Moderna)、AZ(AstraZeneca),及楊森製藥(Janssen Pharmaceutica),其他疫苗目前不被認可。此外,委員會並保證,持證人之個資並不會被成員國所留存。

英國資訊委員辦公室(ICO)針對COVID-19接觸史追蹤應用程式框架,發布意見報告

  英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2020年4月17日,依據英國資料保護法(Data Protection Act 2018)第115條第3項第b款之授權,針對2020年4月10日Apple和Google因應COVID-19疫情發表之「接觸史追蹤應用程式框架」(Contacting Tracing Framework, CTF),發布意見報告。報告認為,由於CTF具備以下三大特性:(1)不會在裝置間交換個人資料,如帳戶資訊或使用者名稱;(2)配對過程僅在裝置本身進行,並不會有如應用程式伺服器之第三方介入;(3)不需要地理位置資訊就能順利運作,因此符合英國資料保護法第57條有關「透過設計並作為預設以保護個人資料」(Data protection by design and default)之規定。   縱然CTF符合英國資料保護法之規定,英國資訊委員辦公室仍於報告中指出:「未來軟體開發商若於接觸史追蹤應用程式中使用CTF技術,該應用程式於處理使用者之個人資料時,仍應隨時符合英國資料保護法關於透過設計並作為預設以保護個人資料之規定。」COVID-19疫情席捲全球,如何於「掌握感染者接觸史以預防疫情擴散」與「保障個人資料及隱私」間取得平衡,實為各國政府需考量之重要議題。我國人工智慧實驗室於2020年4月開發之「社交距離App」,便是使用類似Apple和Google之CTF技術。此份英國資訊委員辦公室意見報告,等於針對社交距離App是否侵害隱私權益,提供相當解答與指引。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP