行動定位服務中的位置資料隱私保護

刊登期別
2005年01月
 

※ 行動定位服務中的位置資料隱私保護, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=794&no=0&tp=1 (最後瀏覽日:2026/01/20)
引註此篇文章
你可能還會想看
透過澳洲eBay交易須納10%商品及服務稅

  澳洲政府規定進行交易必須繳納 10% 的商品及服務稅 (Goods and Services Tax) ,透過澳洲 eBay 所進行的交易亦然。然而澳洲 eBay 業者並未修改其服務條款,強制賣方明列成功得標價須課徵 10% 稅款之資訊,因此許多得標者抱怨他們未被告知必須多付 10% 的稅,亦有些賣家抱怨其他賣家因未將價格加上 10% 的稅款,所以造成商品價格較便宜的假象。為杜絕前述問題,澳洲 eBay 已修改其服務條款,因此,自 6 月 13 日起澳洲 eBay 賣家須將 10% 的商品及服務稅納入交易金額或立即購買價 (Buy It Now price) 中。

惠普 : 軟體專利是必要之惡

  智慧財產權議題涉及專利、著作權和商業機密,近年來因開放原始碼軟體而備受矚目。開放原始碼軟體可共享、修改和重新發布,和傳統專屬軟體的保密性和發布限制迥然不同。   許多開放原始碼與自由軟體倡議人士都痛批軟體專利,相形之下,惠普以擁有大量的專利為傲。2004年惠普一共獲頒1,775項美國專利,在美國排名第四。   惠普Linux負責人表示,開放原始碼程式設計師或許厭惡軟體專利的概念,但最好還是試著自我調適,因為軟體專利是不會消失的。且開放原始碼軟體是在著作權法的基礎上發展而成的,而專利比較麻煩,是因為程式設計師把專利視為削弱他們的自由。另一方面,企業則把專利看待成自家珍貴創意的保護傘。   惠普Linux副總裁Martin Fink批評開放原始碼促進會(Open Source Initiative;OSI)核准開放原始碼授權證書的作法太草率。去年8月,Fink曾指出,開放原始碼授權證書多達52種,實在太多了。現在數目變得更多,因為他抱怨OSI核准任何符合開放原始碼定義的申請案,卻不試著加以整併以強化開放原始碼業的基礎。只基於符合規格就核准授權證書,而未顧及進一步鞏固開放原始碼經營模式的能力,這會構成明顯而迫切的危險。   一家銷售智財權法律免責保險的公司說,調查顯示,Linux作業系統的核心(kernel)可能涉及283項專利侵權。惠普2002年也提醒眾人,微軟可能醞釀對開放原始碼軟體提出專利訴訟。但目前為止這些威脅尚未發生,而紅帽公司(Red Hat)和Novell揚言運用自家專利反制那類威脅,IBM和昇陽也表明不會針對開放原始碼侵犯的數百項專利提出告訴。

新加坡個資保護法責任指南

  新加坡個人資料保護法(Personal Data Protection Act 2012, PDPA)的基本原則之一在於可歸責性(Accountability)之建立,原因在於個資保護的責任歸屬,是組織對個資的持有與控制所為的承諾與責任表示。因此,PDPA第11、12條之法遵責任,組織必須對所持有或控制的個資負責,並且需制定並實施資料保護政策、溝通並告知員工相關政策、及履行PDPA義務所必須施行之流程與作法。於組織責任而言,PDPA雖有強制性義務責任,但應忖量組織內部責任歸屬的措施,而非僅將責任落於遵守法律的程度,組織必須從合於法規的方法轉為基於責任歸屬的方法來管理個人資料。   從而,該指南在政策、人員、流程等領域中透過資料生命週期的循環,確立組織責任歸屬。從落實良好的責任制始於組織領導力的概念出發,設定組織管理高層之職責與調性,繼而規劃處理個資及管理資料風險的方法。並由組織人員治理面向,確立溝通資訊與員工培訓知識與資源。除此之外,也在特定流程設置上,紀錄個人資料流動,了解如何收集、儲存、使用、揭露、歸檔或處理個人資料為流程的首要任務,繼而確認資料保護層面主要的差距與需要改進的領域。再將資料保護實踐於業務流程、系統、商品或服務。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP