一項由華盛頓大學所發表的研究聲明指出,媒體工業團體正使用有瑕疵的方式調查peer-to-peer網路文件共享中侵害著作權的問題。包括M.P.A.A.、E.S.A.、R.I.A.A等團體,不斷寄出逐年增加的DMCA侵權移除通知(takedown notices)給各大學和其他的網路業者。許多大學會在未經查證的情況下直接將侵權移除通知轉寄給學生,R.I.A.A.甚至跟進其中的一些侵權報告並將之寫入財務報告中。
但在2008年6月5日由華盛頓大學的助理教授等三人所發表的研究中認為這一些侵權移除通知應該更審慎檢視之。研究指出,這些團體在指控檔案分享者的調查過程中有嚴重的瑕疵,可能使對方遭受不當的侵權指控,甚至可能來自其他網路使用者的陷害。在2007年5月及8月的兩次實驗中,研究員利用網路監控軟體監控他們的網路流量,實驗結果顯示即使網路監控軟體並未下載任何檔案,卻仍然接收到了超過400次的侵權警告信。
該研究結果顯示執法單位的調查過程中只查詢了網路分享軟體使用者的I.P.位址,卻未真正查明使用者正在下載或是上傳的實際檔案為何,在這種薄弱的搜查技巧跟技術方式之下任何使用網路文件分享軟體的使用者都可能被告,不論其所分享的檔案是否侵權皆如此。
美國食品藥物管理局(U.S. Food and Drug Administration, US FDA)於2023年7月14日發布《上市後研究及臨床試驗:判定未遵守聯邦食品、藥品和化妝品法案第505(o)(3)(E)(ii)節的正當理由》(Postmarketing Studies and Clinical Trials: Determining Good Cause for Noncompliance with Section 505(o)(3)(E)(ii) of the Federal Food, Drug, and Cosmetic Act)指引草案,說明FDA如何判定處方藥廠商未遵守上市後要求(Postmarketing Requirements, PMRs)的正當理由。 根據聯邦食品、藥品和化妝品法案(Federal Food, Drug, and Cosmetic Act, FD&C Act)第505(o)(3)節,應完成PMR的廠商必須向FDA更新研究或臨床試驗進度的狀態及時間表,例如:提交最終版本計畫書、完成研究/臨床試驗、提交結案報告。廠商若未向FDA更新上述PMR資訊即違反FD&C Act,除非廠商提出正當理由。 未遵守PMR的正當理由應符合下列三項條件: 一、與錯失時程直接相關的情況。 二、超出廠商的控制範圍。 三、當初制定時間表時無法合理預期的情況。 該指引草案舉例說明可能的正當理由及非正當理由,另建議廠商提交年度報告前主動通報PMR進度的狀態,並在預期錯過時程之前儘快提供理由,亦須採取矯正PMR不合規行為的措施,包括立即制定矯正計畫、主動向FDA通報實際或預期的延誤,以及修訂合理的時間表。未遵守PMR的廠商可能會收到FDA的警告信(Warning Letter)或無標題信(Untitled Letter)、不當標示指控(Misbranding Charges)和民事罰款,FDA將根據廠商是否採取矯正措施來確定罰金。 「本文同步刊載於 stli生醫未來式 網站(https://www.biotechlaw.org.tw)」
中國要求互聯網企業隨著消費者擔憂程度提高應加強數據隱私在越來越多消費者擔心部分企業以進行大數據研究名義竊取、交易或透露個人資料之行為,侵犯消費者隱私情況下,中國政府已要求互聯網企業加強對個人資料之保護;這並非中國當局第一次要求互聯網企業加強數據隱私保護,中國消費者協會(China Consumers Association, CCA)亦曾示警,中國大量智慧型手機應用程式正在蒐集過多個人資料,包括但不限於用戶位置、聯絡人清單及手機號碼。 中國互聯網金融協會(National Internet Finance Association of China, NIFA)於 11月初發表聲明提及:「未經消費者同意,會員組織不得蒐集、利用或向第三方提供消費者個人資料。」、「所有會員機構都應承擔保護個人資料之個人責任。如發生問題,應立即予以改善並報告給協會……消費者風險警示亦應加強。」,該協會亦向所有會員機構提出警告,對數據隱私之改善措施應承擔個人責任。 中國互聯網企業讚揚AI工具可使用海量數據以增強消費者體驗之優點,然它們不得不靈活應對消費者對如何蒐集與利用個人資料日益增長之焦慮,而中國政府目前正起草制定有關個人數據隱私保護法律,以解決日常生活伴隨著多方數位體驗而生之敏感問題。
歐盟發布「人工智慧白皮書」以因應人工智慧未來可能的機遇與挑戰人工智慧目前正快速發展,不論是在醫療、農業耕作、製造生產或是氣候變遷等領域上,均帶來了許多改變,然而在人工智慧應用之同時,其也存在許多潛在風險如決策不透明、歧視或其他倫理與人權議題。 歐盟為求在全球競爭激烈的背景下,維護其於人工智慧相關領域的領先地位,並確保人工智慧技術於改善歐洲人民生活的同時,亦能尊重(respecting)人民權利,乃於今年(2020年)2月發布「人工智慧白皮書」(White Paper on Artificial Intelligence),將採投資及監管併用之方式,促進人工智慧應用與解決其相關風險,其對於未來促進人工智慧的應用(promoting the uptake of AI)與相關風險解決,計畫朝向建立卓越生態系統(An Ecosystem of Excellence)及信任生態系統(An Ecosystem of Trust)兩方面進行。 在建立信任生態系統中,歐盟提到因為人工智慧具有變革性的潛力,所以就信任的建立乃至關重要,未來歐洲人工智慧的監管框架除了須確保遵守歐盟法規外(包括基本權利保護與消費者權益維護之規範),對於高風險性之人工智慧應用,其將強制要求需於銷售前進行合格評定(mandatory pre-marketing conformity assessment requirement)。而有關高風險性之定義,歐盟於該白皮書指出須符合以下兩個要件: 考量人工智慧應用之一般活動特徵,其預計會有重大風險的發生,例如在醫療保健、運輸、能源和可能屬於高風險的公共領域;以及 在預期用途或應用上都可能對個人(individual)或企業(company)帶來重大的風險,特別是在安全性(safety)、消費者權益(consumer rights)與基本權利(fundamental rights)上。 歐盟委員會目前針對於以上白皮書之內容與附隨報告,將向公眾徵詢意見至今年5月19日。
美國加州公共事業委員會提出自動駕駛車輛試點計畫加州公共事業委員會(California Public Utilities Commission, CPUC)提出自駕車試點計畫,允許在未有配置人類駕駛之情況下測試自駕車,此次計畫包含兩個試點項目,將於5月被五人委員會審核,並決定是否批准。 第一個試點項目允許參與廠商之自駕車上路測試,並須配置經培訓的人類駕駛於自駕車內,以應付隨時的突發狀況;第二個試點項目則允許無人駕駛之自駕車上路測試,惟在無人類駕駛隨車之情況,必須符合加州機動車輛管理局(Department of Motor Vehicles, DMV)之規定,如遠端監控車輛狀態及操作,以保障乘客安全。 參與廠商必須定期向CPUC及DMV繳交營運報告,包含測試期間車輛碰撞(collision)及解除自動駕駛(disengagement)次數。 此次試點計畫已開放廠商申請,科技大廠及叫車服務公司如Google、Tesla、Uber以及Lyft等目前亦已正進行自駕車之設計與測試。若此提案通過,CPUC將進一步規劃自駕車載客服務之相關辦法,使自駕車測試之法制更臻完善。