行動生活之隱私爭議-現行法制能否妥善處理位置資訊衍生問題

刊登期別
2006年06月
 

※ 行動生活之隱私爭議-現行法制能否妥善處理位置資訊衍生問題, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=786&no=67&tp=1 (最後瀏覽日:2026/04/15)
引註此篇文章
你可能還會想看
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

東京都公布「新創全球創新政策」

東京都政府在2022年底發布了「新創全球創新政策」,希望能透過新創全球化的發展帶動產業年輕化,挽救東京在全球新創圈的頹勢。2022年新創生態城市排名東京名列第12名,在其之前的亞洲城市包含第5名的北京、第8名的上海及第10名的首爾,說明了東京在亞洲城市的新創生態排名不如其城市發展一樣的領先群雄。其手段包含在2023年2月以Sustainable High City Tech Tokyo(永續科技城市東京,簡稱為SusHi Tech Tokyo,取壽司的日文諧音)為題,展開一連串將東京打造成新創城市的策略。 關於「新創全球創新政策」中法制方面的政策規劃如下: 1.重新設計法規以培養國內企業家-掌握新創公司的需求,舉行說明會或交流會,來具體後續修法內容。除此之外建立伴走支援制度蒐集新創事業之需求,整合需求對接各主管機關,並協助制度修改之後續追蹤。 2.重新設計全球企業家進入日本的法規-為了增加東京本土的創業公司數量,並加速東京創業公司的全球擴張,制定從海外吸引高級人才的規定,將提出一系列放寬高技能人才簽證簽發條件的特區提案。 3.協助日本新創企業留住外國人才-鬆綁留日簽證規定,使在日一流大學畢業的高階外國人才得於畢業後進入日本新創企業就業或自行成立新創企業。 其他包含結合相關單位包含大學、財團法人與政府部門一同為新創提供支持、培育年輕人創業精神及全球化技能、辦理全球性活動City-Tech.Tokyo並以全國一個品牌的方式向國際推廣日本新創,透過這個「新創全球創新政策」讓日本新創生態發展奪回亞洲冠軍拚向世界前段班。 綜觀來看,東京的「新創全球創新政策」以城市做主體,展現了東京轉變的決心,不只要走在日本最前端更是要走在世界城市的前端。

英國猶疑應否開放人獸混合細胞之胚胎幹細胞研究

  英國之胚胎幹細胞研究活動,係根據「1990年人類受精與胚胎學法」(Human Fertilisation and Embryology Act 1990,HF&E Act)和「2001年人類受精與胚胎學規則」(Human Fertilisation and Embryology (Research Purposes) Regulations 2001,Research Purposes Regulations)之規定,授權由「人類受精與胚胎學管理局」(Human Fertilisation and Embryology Authority,HFEA)依法管理。   新堡大學東北英格蘭幹細胞中心(North East England Stem Cell Institute)Lyle Armstrong博士,在去年底向HFEA申請一項涉及混合人類與動物細胞製造胚胎幹細胞之研究許可;其計劃利用細胞核轉置技術,將牛的卵子細胞核取出,植入人類體細胞核,並刺激其分裂形成胚囊或早期複製胚胎,用以研究培養病患所需身體組織之技術。過去HFEA從未曾核准過此類研究,僅核准過2件利用細胞核轉置技術和單性活化卵母細胞製造胚胎幹細胞株作為醫學研究之申請。此研究申請訊息一流出,即引起保守團體嘩然及指責,要求英國政府應盡速立法,禁止製造人獸混合細胞之實驗活動。面對各界抗議聲浪,HFEA表示,會暫緩此申請案。   事實上,去年12月英國健康部提出了一篇報告-「人工生殖及胚胎學法之檢討」(Review of the Human Fertilisation and Embryology Act),建議國會應儘速立法規範人類動物細胞混合研究。而英國政府與人民究竟能否接受混合人類動物遺傳細胞研究之合法性、合道德性,則為未來立法動向之重要指標。

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

TOP