當個人隱私遇上公共利益--從個資法角度談市長候選人病歷外洩事件

刊登期別
2006年10月04日
 

※ 當個人隱私遇上公共利益--從個資法角度談市長候選人病歷外洩事件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2368&no=55&tp=1 (最後瀏覽日:2026/05/03)
引註此篇文章
你可能還會想看
歐盟執委會公佈GMOs法制之評估報告

  歐盟執行委員會(European Commission)於2011年10月28日公佈兩份針對歐盟基因改造作物(Genetically Modified Organisms, GMOs)之評估報告,這兩份報告係由執委會委託兩個獨立顧問機構所完成,評估時間自2009年至2011年。第一份報告係針對GMOs食品與飼料規範(EU's legislative framework in the field of GM food and feed)之評估報告;第二份報告係針對GMOs耕作規範(legislative framework in the area of GMOs cultivation)之評估報告。此兩份報告之重要性在於,其收集來自官方及民間對於GMOs法制之事實陳述與意見,如健康與環境的保護、國內市場的產物規範等議題,可作為未來改善歐盟GMOs法制的基礎。   評估指出,歐盟的GMOs法制就健康與環境保護之規範並無偏誤;但在效率及透明度上,尚有改善之空間。此外越來越多含有基因改造的農作物輸入歐盟造成健康及環境之威脅,而須進一步改善風險評估之作法以及調整相關法制。   在過去一年中,執委會已採納報告中之部分建議,著手針對現存法制作出微調及改善,包括: 1.在GMOs耕作上需要更多的彈性。 2.低度殘留(Low Level Presence, LLP)的解決方案。 3.收集關於GMOs耕作的社會經濟層面之技術資訊。 4.新作物播種技術之評估。 5.監控活動的加強。 6.針對成員國批准風險評估的指導方針(Guideline)法制化之檢討與改革。 7.對於GMOs重要議題的溝通活動之改善。   除上述之改善工作持續進行,在接下來幾週,執委會將針對農產品輸入許可制度提出改善方案,以建立更嚴謹的許可要求。由這兩份報告的公佈,可以預見未來歐盟將持續完善現存法制,而此兩份評估報告將如何影響歐盟的GMOs規範,值得持續觀察。

從促參法修正談我國通訊傳播網路產業輔導之法制化

歐洲法院2017年12月認定Uber是運輸服務業

  巴塞隆納計程車工會認為Uber未受西班牙運輸服務業相關法令管制,而有違反公平競爭之虞,因此向西班牙巴塞隆納3號商事法院提起訴訟。3號商事法院認為有必要進一步釐清Uber之商業模式究竟是否為歐盟法令下之運輸服務業或資訊服務業,亦或兩者均是。這將影響歐盟內部市場指令和電子商務指令之涵蓋範圍,從而決定Uber是否有違反競爭法。   為此,歐洲法院在2017年5月做出先行裁決後,於同年12月做出判決,認定Uber之性質是運輸服務業,因此排除前述指令之適用,應接受各國運輸服務業相關法令之要求,否則違反公平競爭。法院觀點認為縱然其商業模式看似乘客與駕駛之間為自由選擇之連結。然而,Uber提供的平台是這個連結不可或缺的關鍵以外,對於運輸服務的提供,包括價格、車輛、駕駛的選擇具有決定性的影響力。此外,Uber藉由組織這樣的運輸服務來獲取利潤本身就涉及了運輸服務的直接提供。所以Uber整體服務的主要組成部分必須被視為以運輸服務構成,不應被分類為資訊服務。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP