2021年7月中旬,日本經濟產業省(下稱經產省)發布《促進資料價值創造的新資料管理方法與框架(暫定)(データによる価値創造(Value Creation)を促進するための新たなデータマネジメントの在り方とそれを実現するためのフレームワーク(仮))》之綱要草案(下稱資料管理框架草案),並公開對外徵求意見。
近年日本在「Society5.0」及「Connected Industries」未來願景下,人、機器與科技的跨界連接,將創造出全新附加價值的產業社會,然而達成此願景的前提在於資料本身須為正確,正確資料的自由交換,方能用於創造新資料以提供附加價值,因此正確的資料可說是確保網路空間連結具有可信性的錨點。為此,經產省提出資料管理框架草案,透過資料管理、識別資料在其生命週期中可能發生的風險,以確保資料在各實體間流動的安全性,從而確保其可信性。
該框架將資料管理定義為「基於資料的生命週期,管理各場域中資料屬性因各種事件而變化的過程」,由「事件(資料的產生/取得、加工/利用、轉移/提供、儲存和處置)」、「場域(例如:各國家/地區法規、組織內規、組織間的契約)」和「屬性」(例如:類別、揭露範圍、使用目的、資料控制者和資料權利人)三要素組成的模組。經產省期望未來能透過三要素明確資料的實際情況,讓利害關係人全體在對實際情況有共同理解的基礎上,能個別確保適當的資料管理,達成確保資料正確之目的。
「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
納菲爾德生物倫理學理事會(Nuffield Council on Bioethics)成立於1991年,是一家英國的獨立慈善機構,致力於考察在生物與醫學領域新近研究發展中所可能牽涉的各項倫理議題。由該理事會所發表的報告極具影響力,往往成為官方在政策決策時之依據。 有鑑於近年big data與個人生物和健康資料的分析使用,在生物醫學研究中引起廣泛的爭議討論,此間雖然不乏學者論理著述,但對社會層面的實質影響卻較少實證調查研究。Nuffield Council on Bioethics於日前發布一項為期三個月(2013/10/17~2014/01/10)的生物暨健康資料之連結使用公眾諮詢調查計畫(The linking and use of biological and health data – Open consultation)。此項計畫之目的在於,瞭解更多有關資料連結與使用時所可能導致之傷害或可能的有利發展。並研析適當的治理模式和法律措施,使得民眾隱私權保護與相關研究之合法性得以兼顧,俾使更多人受益。 為執行此項計畫,Nuffield Council on Bioethics延攬健康照護資訊技術、資訊治理、健康研究、臨床診療、倫理和法律等領域專家組成計畫工作小組,由工作小組廣泛地蒐集來自民眾與各類型組織的觀點,探詢當民眾在面對個人的生物與健康資訊相互連結、分析時,民眾對當中所牽涉倫理議題之看法。該項公眾諮詢調查將針對以下重點進行: 1.生物醫學資料之特殊意義 2.新的隱私權議題 3.資料科學和資訊技術發展所造成之影響 4.在研究中使用已連結的生物醫學資料所可能帶來的影響 5.在醫學臨床上使用已連結的資料所可能帶來的影響 6.使用生物醫學研究和健康照護以外的生物醫學資料所可能帶來的影響 7.探討能夠在倫理上支持連結生物醫學資料的法律和治理機制 由於Nuffield Council on Bioethics被視為英國科學界的倫理監察員、政府智囊團,因此未來調查報告發布後對相關政府政策所可能產生的影響,當值得我們持續關注。
美國最高法院在電影蠻牛案中釐清權利行使怠惰原則之適用美國最高法於近日判決電影編劇Frank Petrella之女得對電影公司MGM對其父親於1963年以世界中量級拳王Jake LaMotta生平創作的劇本蠻牛(Raging Bull)持續性的商業利用行為提出侵權訴訟。 本案緣起於在美國著作權法下,1978年以前發表的著作受到28年的著作權保護,並得於到期後延展保護67年,而若作者在延展之前死亡亦即本案情形,著作受讓人僅得於繼承人移轉延展權的情況下繼續使用,而著作權法507(b)規定民事賠償請求需於侵權行為發生後的三年內提出。 原告編劇Frank Petrella之女於2009年向MGM提出2006年後侵權行為之賠償,MGM則以法律不保護權利怠於行使之人(thedoctrine of laches)作為抗辯,主張原告不得起訴。地方法院及第九巡迴上訴法院皆贊同被告MGM之主張,認為原告於1991年延展著作權保護時即知悉,此舉對MGM並不合理且帶有偏見。 最高法院近日推翻下級法院的看法,認為權利行使怠惰並不阻卻權利人對請求權時效內發生的侵權行為提出訴訟,同時更進一步釐清著作權法507(b)允許權利人評估值得尋求訴訟救濟的時間點,除非權利人刻意誤導第三人不會對其起訴,而這是禁反言原則(thedoctrine of estoppel)的問題,本案下級法院顯然混淆了二者之區別,從而肯定原告有權向MGM請求著作權侵害之損害賠償。
美國國會提出SHIELD法案 圍堵專利蟑螂橫行為反制專利蟑螂利用訴訟方式滋擾實際從事研發以及實施專利者,美國國會於2012年8月提出SHIELD法案(Saving High-Tech Innovators from Egregious Legal Disputes Act of 2012 ),顧名思義本法案之目的在於防免高科技創新者陷於惡意挑起的法律爭端之中。該法案補充美國聯邦專利法規定,使得法院得在發現當事人一造並無合理勝訴之可能而仍舊對電腦硬體或軟體專利之有效性提起訴訟,或主張被侵權時,法院得判決其回復全部訴訟之費用支出予除美國以外勝訴之一造(the prevailing party),包括合理之律師費。 SHIELD法案原立意良善,但其也可能就像兩面刃,例如法案的規範內容用語抽象,以致於在企圖達到其立法目的外,未同時設想可能造成的法律陷阱或未預期之法律效果。就法案內容來看,其賦予法院得判決要求回復訴訟費用及律師費之人(所謂勝訴之一造)並不限於原告。又本法案得適用在任何電腦或軟體專利的訴訟,因此,當兩家大型公司相互就專利實施進行對決時,SHIELD法案無異使得原本已經成本很高的競爭更提高雙方的賭注。此外,法案中對「電腦」的定義,不限於一般認知的「軟體或電腦硬體公司」,使得從金融業到汽車製造都可能涵蓋在內,例如銀行就有許多系統可能同時連接具專利之電腦或其他軟體組件。更重要的是,何時勝訴方可獲得律師費之補償判決,法案亦沒有給法院明確之範圍。 雖然本法案最後通過與否或通過施行後的樣貌仍未可知,但可得知的是對於部分NPE之負面利用專利制度之行為,已促使政府與法界思索專利制度如何衡平專利權保護而更能達到專利制度設置之目的,而其未來顯然仍有一段遙遠的路要走。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現