歐盟食品安全與標示近期發展-以歐盟法院Teekanne案為例

刊登期別
第28卷,第4期,2016年04月
 

本文為「經濟部產業技術司科技專案成果」

※ 歐盟食品安全與標示近期發展-以歐盟法院Teekanne案為例, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7547&no=55&tp=1 (最後瀏覽日:2026/03/07)
引註此篇文章
你可能還會想看
英國倫理機構針對海量資料(big data)之使用展開公眾諮詢調查

  納菲爾德生物倫理學理事會(Nuffield Council on Bioethics)成立於1991年,是一家英國的獨立慈善機構,致力於考察在生物與醫學領域新近研究發展中所可能牽涉的各項倫理議題。由該理事會所發表的報告極具影響力,往往成為官方在政策決策時之依據。   有鑑於近年big data與個人生物和健康資料的分析使用,在生物醫學研究中引起廣泛的爭議討論,此間雖然不乏學者論理著述,但對社會層面的實質影響卻較少實證調查研究。Nuffield Council on Bioethics於日前發布一項為期三個月(2013/10/17~2014/01/10)的生物暨健康資料之連結使用公眾諮詢調查計畫(The linking and use of biological and health data – Open consultation)。此項計畫之目的在於,瞭解更多有關資料連結與使用時所可能導致之傷害或可能的有利發展。並研析適當的治理模式和法律措施,使得民眾隱私權保護與相關研究之合法性得以兼顧,俾使更多人受益。   為執行此項計畫,Nuffield Council on Bioethics延攬健康照護資訊技術、資訊治理、健康研究、臨床診療、倫理和法律等領域專家組成計畫工作小組,由工作小組廣泛地蒐集來自民眾與各類型組織的觀點,探詢當民眾在面對個人的生物與健康資訊相互連結、分析時,民眾對當中所牽涉倫理議題之看法。該項公眾諮詢調查將針對以下重點進行: 1.生物醫學資料之特殊意義 2.新的隱私權議題 3.資料科學和資訊技術發展所造成之影響 4.在研究中使用已連結的生物醫學資料所可能帶來的影響 5.在醫學臨床上使用已連結的資料所可能帶來的影響 6.使用生物醫學研究和健康照護以外的生物醫學資料所可能帶來的影響 7.探討能夠在倫理上支持連結生物醫學資料的法律和治理機制   由於Nuffield Council on Bioethics被視為英國科學界的倫理監察員、政府智囊團,因此未來調查報告發布後對相關政府政策所可能產生的影響,當值得我們持續關注。

德國巴伐利亞邦政府聲明其執行DSGVO(GDPR)的方式─對中小企業及協會友善的輔導

  今年7月31日最新一期的巴伐利亞邦政府公報(Allgemeines Ministerialblatt, AllMBl),揭露今年6月5日的巴伐利亞內閣會議紀錄─關於巴伐利亞邦執行DSGVO的方式。   公報內容指出幾個重點: 業餘體育俱樂部(Amateursportverein)、樂隊(Musikkapelle)或由志願者投入者組成的協會(Verein),不須任命資料保護官員(Datenschutzbeauftragten, DSB)。 如果因為對法律的不熟悉而初次違反DSGVO,並不會被罰款;相關單位的指示和建議將優先於處罰。因依據DSGVO第83條第1項規定,處罰應該是有效、適當且具有懲戒性的。故對於非第一次違反的情況,就可能直接依據DSGVO第83條規定處以罰款。 巴伐利亞邦不能接受「警告律師」(Abmahnanwälten)告誡企業資料保護行為違規的做法。 邦政府將向有關單位進一步確認DSGVO中的相關規定,其應用尤其必須能夠確保正確且適當的符合DSGVO的目標。 邦政府將與協會和中小企業進行進一步有關DSGVO適用的討論。   在巴伐利亞邦政府公布的新聞稿中,總理馬庫斯索德進一步表示:「DSGVO實現了更大程度的隱私保護,但不應該成為官僚主義的怪物。巴伐利亞將提供對協會及中小企業都友善的DSGVO適用方式。我們提供的是幫助,而不是懲罰。」內政部長Joachim Herrmann則表示:「DSGVO希望促使人民接受,但不是在人民的日常生活製造更多的困擾和額外的官僚主義。最重要的是,所有的協會、許多有志願者投入的地方或中小企業,必須透過適當和正確地應用DSGVO,來保護其免受過度的資料保護要求。」   巴伐利亞資料保護監督辦公室(BayLDA, Bayerische Landesamt für Datenschutzaufsicht)並進一步公布了對許多中小企業,如:協會、醫療診所(Arztpraxis)、稅務顧問(Steuerberater)……等行業,遵循DSGVO的參考指引,提供進一步的遵循指示。

英國民航局發布航空AI監管策略三文件,以因應AI於航空領域之挑戰與機會

英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。 由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下: (1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。 (2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。 (3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。 (4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。 (5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}

日本自動駕駛損害賠償責任研究會報告

  為釐清自駕車事故發生時,該如何適用日本《汽車賠償法》相關規定,國土交通省於2016年11月設置「自動駕駛損害賠償責任研究會」,檢討︰(1)自動駕駛是否適用《汽車賠償法》上運用供用者概念?(2)汽車製造商在自動駕駛事故損害中應負何種責任?(3)因資料謬誤、通訊不良、被駭等原因導致事故發生時應如何處理?(4)利用自動駕駛系統時發生之自損事故,是否屬於《汽車賠償法》保護範圍等議題,並於2018年3月公布研究報告。針對上述各點,研究會認為目前仍宜維持現行法上「運行供用者」責任,由具有支配行駛地位及行駛利益者負損害賠償責任,故自駕車製造商或因系統被駭導致失去以及支配行駛之地位及行駛利益者,不負運行供用者責任。此外,研究報告亦指出,從《汽車賠償法》立法意旨在於保護和汽車行駛無關之被害者,以及迅速使被害者得到救濟觀之,自動駕駛系統下之自損事故,應仍為《汽車賠償法》保護範圍所及。

TOP