行動生活之隱私爭議-現行法制能否妥善處理位置資訊衍生問題

刊登期別
2006年06月
 

※ 行動生活之隱私爭議-現行法制能否妥善處理位置資訊衍生問題, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=786&no=67&tp=1 (最後瀏覽日:2025/12/28)
引註此篇文章
你可能還會想看
FTC提供意見給NHTSA有關隱私權和車輛對車輛通訊(V2V)

  美國聯邦貿易委員會(FTC)針對國家公路交通安全管理局(NHTSA)的行政命令提出建議,就有關車輛到車輛通信(V2V)之事宜,FTC長期作為負責保護消費者隱私與安全的聯邦機構,FTC認為NHTSA在行政命令中採取隱私和安全問題考慮是非常適當。   在FTC的建議評論指出,FTC針對物聯網的的資訊安全疑慮,同樣也會適用在消費者的車輛收集的隱私和安全問題。FTC認為NHTSA的協商支持作法,基於流程的可解決隱私和安全隱患,其中包括隱私風險評估。該評論還讚揚NHTSA設計一個V2V系統來限制收集和存儲僅是供應其預期的安全目標的數據。   美國每年都會有上千人意外死於汽車意外事故,NHTSA研究指出,汽車相撞的原因多數情況下在於資訊的不透明,如果汽車之間可以「相互溝通」,讓駕駛彼此知悉對方的情況,就能減少碰撞事故。   「V2V」係指vehicle-to-vehicle,是規劃建立於汽車之間的通信網路。在這個網路中,汽車之間能夠互相傳送數據,告訴對方自己的狀態和行為,也了解其他車輛的狀態和行為。但是目前V2V各家發展的標準不一,因此假設福特的車如果不能跟其他廠商的汽車溝通,技術再好也沒用。   也因此,NHTSA在官網上公告規則,宣布將制定「V2V」通信技術標準的法規。也就是說,NHTSA將要制定一個統一的標準,來確保汽車之間溝通使用的是同一種語言。在最新的一份報告中,NHTSA詳細說明了「V2V」通信技術的軟硬體標準。它包括部署該項技術可能需要的硬體設施及其費用,汽車之間溝通的資料類型,以及該技術將如何提醒司機。此外,還覆蓋了「V2V」通信技術的安全細則,以及它將如何加密以避免竊聽和侵犯隱私。   在使用者和廠商都關心的資料外洩方面,NHTSA表示,資料本身將不包含個人身份資訊,並且將會被保密。目前提出的方案裡包含兩套數據,其中一個包含核心資訊:如位置、速度、駕駛方向、剎車狀態、車輛尺寸等。這些資料將即時更新並相互傳播。第二套數據則會更加複雜,只有在數據發生變化時才會相互傳輸。它包括汽車輪胎是否漏氣,前燈是否打開,保險杠的高度,是否行駛在密集人群中等。

日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點

日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。

韓國科技部成立元宇宙/NFT安全委員會

  隨著NFT持續延燒,韓國不少藝術家選擇透過NFT之模式進行數位交易。然2021年11月,韓國金融監督委員會認為NFT不屬於數位資產,也不承認NFT相關之數位交易。根據韓國聯合新聞通訊社(YNA)2022年7月14日報導,韓國科學技術情報通信部( MSIT)與韓國網路振興院(KISA)宣布成立元宇宙/NFT安全委員會,以檢查元宇宙和NFT等虛擬融合經濟的傳播所產生的新安全問題,並強化產業合作。   該委員會由該國元宇宙和NFT相關的平台公司、安全產業、合作社組成,旨在振興安全可靠的虛擬融合經濟產業,分析和共享網絡威脅、安全技術及損失案例,並針對各種安全問題尋求主動響應和解決方案。   虛擬數位資產本身存有爭議,加上公鏈Terra的崩盤造成韓國28萬名投資人遭受巨大損失,使作為主管機關的韓國金融委員會(FSC)和金融監督院(FSS)壓力倍增,宣布制定《數位資產基本法》大綱框架,目前此法將加密資產定義為非法幣資產、非金融商品資產之「第三類資產」,並強調未來將有加密資產委員會進行專門管理。韓國擬積極加強監管虛擬數位資產,擬徹底管理加密投資風險,並加強監管杜絕非法吸金與場外交易。《數位資產基本法》預計於2023年上路。   本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國勞工部發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」文件,要為雇主和員工創造雙贏

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國勞工部(Department of Labor)於2024年10月發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」(Artificial Intelligence and Worker Well-Being: Principles and Best Practices for Developers and Employers)參考文件(下稱本文件)。本文件係勞工部回應拜登總統2023年在其《AI安全行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)中對勞工的承諾,作為行政命令中承諾的一部分,本文件為開發人員和雇主制定如何利用人工智慧技術開展業務的路線圖,同時確保勞工可從人工智慧創造的新機會中受益,並免受其潛在危害。 本文件以八項AI原則為基礎,提出最佳實踐作法,其重點如下。 1. 賦予勞工參與權(empowering workers):開發人員和雇主履行各項原則時,應該秉持「賦予勞工參與權」的精神,並且將勞工的經驗與意見納入AI系統整個生命週期各環節的活動中。 2. 以合乎倫理的方式開發AI系統:開發人員應為AI系統建立標準,以利進行AI系統影響評估與稽核,保護勞工安全及權益,確保AI系統性能符合預期。 3. 建立AI治理和人類監督:組織應有明確的治理計畫,包括對AI系統的人類監督機制與定期評估流程。 4. 確保AI使用透明:雇主應事先告知員工或求職者關於AI系統之使用、使用目的及可能影響。雇主及開發人員應共同確保以清晰易懂的方式公開說明AI系統將如何蒐集、儲存及使用勞工的個資。 5. 保護勞工和就業權利:雇主使用AI系統時,除應保障其健康與安全外,不得侵犯或損害勞工的組織權、法定工資和工時等權利。 6. 使用AI以提升勞工技能(Enable Workers):雇主應先了解AI系統如何協助勞工提高工作品質、所需技能、工作機會和風險,再決定採用AI系統。 7. 支援受AI影響的勞工:雇主應為受AI影響的勞工提供AI技能和其他職能培訓,必要時應提供組織內的其它工作機會。 8. 負責任使用勞工個資:開發人員和雇主應盡責保護和處理AI系統所蒐集、使用的勞工個資。

TOP