高達十億美元的著作權訴訟案件大大挑戰YouTube,YouTube之母公司Google的律師向美國曼哈頓地方法院(U.S. District Court in Manhattan)提交文件對Viacom最新提出的訴訟作出以下回應: 『對受著作權保護的資訊無法出現在該網站上的指控,將威脅兩億用戶在網路上交換資訊的權益』。 自從Viacom於2007年提出訴訟以來,這兩家公司之間的交鋒戰況日益激烈。Viacom聲稱,由於用戶能夠不經允許地看到該公司的傳播內容,YouTube反而一貫縱容未經授權的流行電視劇和電影在其網站上放置,並被瀏覽數萬次,並稱Google對此視而不見,已使該公司遭受嚴重損失。 Google在上周五提交給法官的文件中宣稱,『YouTube在幫助著作內容擁有者保護其著作權方面做的已遠遠超過法律應承擔的義務』。同時,Google表示:『為了尋求上傳者和網路服務業者的合法性,Viacom反而威脅了兩億網路用戶合法交換資訊、新聞、娛樂、政治和藝術表達的方式與自由』。 Google稱所屬的YouTube乃忠實執行1998年『千禧年著作權法』(1998 Digital Millennium Copyright Act) 的要求,認為聯邦法會保護YouTube等對著作權擁有者的要求做出適當回應。但Viacom卻認為YouTube開啟了一個不良示範。
英國政府公布醫療器材之「未來法規施行」規劃英國藥物及保健產品管理局(Medicines and Healthcare Products Regulatory Agency, MHRA)在2024年1月9日針對醫療器材(下稱醫材)提出「未來法規施行」(Implementation of the Future Regulations)規劃,旨在提升病人安全,並且確保英國市場對醫療技術創新者來說仍具有吸引力。本次內容主要包含2024年度規劃公告的重大法案,以及2025年後預計實施的核心政策,以下節錄相關說明: 1.預計於2024年實施的法規及政策 MHRA擬定了幾個重要法規及政策的公告時程表,主要包含名為「AI-Airlock」的監理沙盒 (AI-Airlock regulatory sandbox)及數則醫材軟體監管指引,主題有「醫材開發地圖的優良機器學習實踐」(Good machine learning practice for medical device development mapping)、「人工智慧醫材開發和部署的最佳實踐」(AI as a Medical Device(AIaMD) development and deployment best practice)及「資料驅動醫材軟體的研究、發展及治理」Data-driven SaMD research, development and governance);另外,因應世界貿易組織(World Trade Organization, WTO)於2023月7月26日發佈的 《上市後監督要求之行政立法性文件草案》(draft Post-market Surveillance Requirements Statutory Instrument, PMS SI),英國政府也打算在 2024 年引入相關立法,以加強醫材上市後的監管要求。 2. 未來核心政策規劃 MHRA已選定數個醫材管理核心主題,並預計從2024年上半年開始與利害關係人啟動相關討論會議,以利於2025年後制定更詳細的施政草案。管理議題明確包含對植入式醫材的風險分類進行升級、增加醫材軟體的分類、加強對醫材之品質管理系統與加強技術文件、推行專屬識別碼(Unique Device Identifiers, UDI)、更新臨床試驗施行措施、引入國際承認框架,使已獲得類似監管機構批准的醫材更快進入市場,以及促使英國對於醫材軟體網路安全等基本管理要求持續與歐盟接軌。 以上施政規劃,反映出英國政府為確保民眾安全,欲持續加強醫材品質的風險管理力道,以及隨著搭載AI技術的智慧醫材在各國快速發展,英國政府有意將此類的醫材朝向細緻化管理的布局。此外,英國於2020年脫歐後,歐盟的醫療器材法規在英國已不再適用,故MHRA近年積極發布更適合英國體質的醫材監管政策,以確保國內醫材市場保持國際競爭力,也避免醫材供應鏈發生短缺之情形。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。
歐巴馬宣布將立法保護學生數位隱私權美國總統歐巴馬日前表示其將訂立「學生數位隱私法」(The Student Digital Privacy Act)以確保因教育目的而被蒐集之學生個人資料將不會被用於無關之用途。換言之,該法將禁止,例如,利用所蒐集資料對學生進行精準行銷的行為,但仍會許可蒐集者利用所蒐集資料改善其所提供之軟硬體教育設備或用以幫助學生之學習品質。 針對學生之隱私保護,目前於聯邦層級至少已有家庭教育權利與隱私法(Family Educational Rights and Privacy Act,FERPA),該法及其授權法令雖賦予學生及其家長對學校所保有之教育紀錄(educational record)之蒐集、使用有知情同意權及其他如修正教育紀錄之權利。但FERPA也列了相當多的例外情形,例如,醫療資料、受雇紀錄等均不在教育紀錄之列;此外,學校亦可不經同意即公布學生的姓名、電子郵件、出生地、主修、預計畢業日期等資料。 學生數位隱私法未來如能獲國會通過成為法律,該法與FERPA的異同,及其內容與施行實務是否確有助於學生隱私之改善,仍有待觀察。