本文為「經濟部產業技術司科技專案成果」
歐盟執行委員會(European Commission)於2011年10月28日公佈兩份針對歐盟基因改造作物(Genetically Modified Organisms, GMOs)之評估報告,這兩份報告係由執委會委託兩個獨立顧問機構所完成,評估時間自2009年至2011年。第一份報告係針對GMOs食品與飼料規範(EU's legislative framework in the field of GM food and feed)之評估報告;第二份報告係針對GMOs耕作規範(legislative framework in the area of GMOs cultivation)之評估報告。此兩份報告之重要性在於,其收集來自官方及民間對於GMOs法制之事實陳述與意見,如健康與環境的保護、國內市場的產物規範等議題,可作為未來改善歐盟GMOs法制的基礎。 評估指出,歐盟的GMOs法制就健康與環境保護之規範並無偏誤;但在效率及透明度上,尚有改善之空間。此外越來越多含有基因改造的農作物輸入歐盟造成健康及環境之威脅,而須進一步改善風險評估之作法以及調整相關法制。 在過去一年中,執委會已採納報告中之部分建議,著手針對現存法制作出微調及改善,包括: 1.在GMOs耕作上需要更多的彈性。 2.低度殘留(Low Level Presence, LLP)的解決方案。 3.收集關於GMOs耕作的社會經濟層面之技術資訊。 4.新作物播種技術之評估。 5.監控活動的加強。 6.針對成員國批准風險評估的指導方針(Guideline)法制化之檢討與改革。 7.對於GMOs重要議題的溝通活動之改善。 除上述之改善工作持續進行,在接下來幾週,執委會將針對農產品輸入許可制度提出改善方案,以建立更嚴謹的許可要求。由這兩份報告的公佈,可以預見未來歐盟將持續完善現存法制,而此兩份評估報告將如何影響歐盟的GMOs規範,值得持續觀察。
2025年美國法院以「後設資料」作為審理AI深偽數位證據案件之重點2025年9月Mendones v. Cushman and Wakefield, Inc.案(下稱Mendones案),面對生成式AI與深偽(deepfakes)對數位證據真實性的威脅,美國法院特別提到針對後設資料(metadata)的審查。 基於Mendones案原告提交9項涉嫌使用生成式AI的數位證據,其中證詞影片6A與6C影片具備「人物缺乏臉部表情、嘴型與聲音不相符,整體表現像機器人一樣」且「影片內容循環撥放」等AI深偽影片之典型特徵,法院懷疑原告舉證的數位證據為AI深偽影片。 因此,法院要求原告須提出該影片的後設資料,包含文件格式、創建/修改日期、文件類型、拍攝影片的快門速度等客觀資訊。 法院表示,原告提交的後設資料不可信,因為包含許多通常不會出現在後設資料的資訊(非典型的資訊),例如:著作權聲明。且法院進一步指出,許多非典型的資訊被放在不相關的欄位,例如:Google地圖的URL網址、電話號碼、GPS座標及地址等被放在「音樂類型」(musical genre)欄位內。因此法院懷疑,前述「非典型之後設資料」是被有存取文件與編輯權限的人添加的「後設資料」。 原告則主張,其透過iOS 12.5.5版本作業系統的Apple iPhone 6 Plus手機拍攝影片6A。法院指出,直到iOS 18版本作業系統,iPhone才推出可用於生成深偽影片的新功能「Apple Intelligence」相關技術,且該版本需要使用iPhone 15 Pro或更新的手機機型,因此法院發現技術上的矛盾。 法院認為,本案生成式AI影片已超越提交虛假引文(Fictitious Citations,即過往案例曾出現過律師提出AI虛構的判例之情況)的範疇。在訴訟中使用深偽證據,嚴重影響了法院的審理與公眾對司法的信任,並增加法院評估該證據是否為深偽之成本。因此,法院採取嚴厲的永久駁回訴訟(dismissed with prejudice),以表示對企圖以深偽資料為證據的行為持「零容忍」態度。 Mendones案展現法院審理AI深偽數位證據的細節,如「審視後設資料之內容準確、完整」為法院確認數位證據真實性的重要手段。 面對AI時代下數位證據的挑戰,我國司法院、法務部、臺灣高等檢察署、內政部警政署及法務部調查局共同推動之「司法聯盟鏈共同驗證平台」,以「b-JADE證明標章」結合區塊鏈技術。「b-JADE證明標章」確保鏈下管理數位資料原檔的機制,以及鏈上的「存證資料」包含「與數位原檔資料最終版本連結的『必要後設資料』」、雜湊值及時戳,如能妥適運用司法聯盟鏈進行證據「驗真」程序,將有助於強化數位信任。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
德國因應歐盟一般資料保護規則(GDPR)之通過,即將進行該國資料保護法(BDSG)修正德國聯邦資訊技術,電信和新媒體協會(bitkom)於2016年9月2日釋出將以歐盟新制定之一般資料保護規則(GDPR)內容為基礎,調整德國聯邦資料保護法(BDSG)之修法動向。 德國政府正在緊鑼密鼓地調整德國的資料保護立法,使之與歐盟GDPR趨於一致。已知未來將由“一般聯邦資料保護法”取代現行的聯邦法律。草案內容雖尚未定稿,但修正方向略有以下幾點: 首先,德國未來新法不僅參考GDPR、也試圖將該法與GDPR及歐盟2016年5月4日公告之歐盟資訊保護指令Directive(EU)2016/680相互連結。該指令係規範對主管機關就自然人為預防,調查,偵查等訴追刑事犯罪或執行刑事處罰目的,處理個人資料時的保護以及對資訊自由流通指令。 其次,新法將遵循GDPR的結構,並利用一些除外規定,如:在資料處理時企業應指派九人以上資料保護官(DPO)的義務。某些如通知當事人的義務規定,亦有可能在存有更高的利益前提下,限縮其履行範圍。此意味某些通知義務有可能得不適用,例如履行該義務需要過於龐大人力、資金支出、耗費過多等因素。 第三,聯邦法律將保留一些規定,如上傳給信用調查機構的條款、雇傭契約中雇用方面處理個人資料的條款,以及在公眾開放地區使用電子光學裝置監視的條款等。 最後,立法修正動向值得注意的重點尚有,(1)未來德國立法者將如何應對新的歐洲資料保護委員會(EDPB)中德國代表的地位(represe。由於EDPB將發布具有約束力的決定,針對爭議內容的決定意見,德國內部顯然應該統一意見。蓋因迄今為止的德國聯邦資料保護監察官(17個)經常提出不同的見解。此外,(2)還應該觀察聯邦資料保護監察官是否應該賦予權限,向法院提出對歐盟爭議決定或法律救濟,使案件進入德國法院,以爭執歐盟執委會所為之決定是否具備充足理由。前此,德國聯邦參議院(代表十六邦)2016年5月已要求聯邦政府引進新規定,使資訊監察保護官有請求法院救濟之權。這項源於安全港協議判決的討論,將來有可能提供德國資料保護監察官,挑戰隱私盾協議的可能性。但新法案是否會解決這一問題,這還有待觀察。 可預見在2017年9月下一屆德國聯邦議會選舉前,將通過法案。
美國OMB發布人工智慧應用監管指南備忘錄草案美國行政管理預算局(United States Office of Management and Budget, OMB)於2020年1月發布「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」備忘錄草案。該備忘錄草案係基於維護美國人工智慧(AI)領導地位之目的,而依據美國總統川普(Donald John Trump)於2019年2月簽署之「維持美國人工智慧領導地位(Maintaining American Leadership in Artificial Intelligence)─行政命令13859號」,並在啟動美國人工智慧計畫後180天內,經OMB偕同科技政策辦公室(Office of Science and Technology Policy, OSTP)、美國國內政策委員會(United States Domestic Policy Council)與美國國家經濟委員會(National Economic Council)與其他相關機構進行協商,最後再由OMB發布人工智慧應用監管指南備忘錄草案,以徵詢公眾意見。 該備忘錄草案不僅是為了規範新型態AI應用技術,更希望相關的聯邦機構,在制定AI應用產業授權技術、監管與非監管方法上,能採取彈性的制定方向,以避免過度嚴苛的規定,反而阻礙AI應用的創新與科技發展,繼而保護公民自由、隱私權、基本權與自治權等價值。同時,為兼顧AI創新與政策之平衡,應以十大管理原則為規範制定之依據,十大管理原則分別為: 培養AI公眾信任(Public Trust in AI); 公眾參與(Public Participation); 科學研究倫理與資訊品質(Scientific Integrity and Information Quality); AI風險評估與管理(Risk Assessment and Management); 獲益與成本原則(Benefits and Costs); 彈性原則(Flexibility); 公平與反歧視(Fairness and Non-Discrimination); AI應用之揭露與透明化(Disclosure and Transparency); AI系統防護與措施安全性(Safety and Security); 機構間之相互協調(Interagency Coordination)。 此外,為減少AI應用之阻礙,機構制定AI規則時,應採取降低AI技術障礙的方法,例如透過聯邦資料與模型方法來發展AI研發(Federal Data and Models for AI R&D)、公眾溝通(Communication to the Public)、自發性共識標準(Voluntary Consensus Standards)之制定及符合性評鑑(Conformity Assessment)活動,或國際監管合作(International Regulatory Cooperation)等,以創造一個接納並利於AI運作的環境。