委託研究開發之智慧財產治理運用指引(委託研究開発における知的財産マネジメントに関する運用ガイドライン,以下簡稱委託研發智財運用指引)為日本經濟產業省制定並於2015年5月15日公布,用於規範該省、或該省所轄獨立行政法人委外執行技術研發計畫而產出的各項智慧財產權之管理運用事宜。
日本於產業技術力強化法第19條納入拜杜法(Bayh-Dole Act)的意旨,建立了政府資助研發所生的智財權成果歸屬受託單位的原則,但同時為促進研發成果的第三人商業化利用,落實國家資助技術研發成果獲得充分運用以達成國家財富最大化的政策方針,因而作成該指引。
委託研發智財運用指引以委託機關和受託單位為規範對象,首先揭示了研發成果商業化利用的重要性,並以此為核心思維,賦予委託機關須就個別委外研發計畫,在計畫開始前訂定計畫智財權管理方針,並向潛在計畫參加者提示的義務,同時,委託機關須確保委託契約中包含智財權等成果管理運用之約款,例如針對成果有無適用日本拜杜法規定、受託單位承諾在相當期間內未妥善運用成果時開放第三人利用等;另一方面,受託單位則有義務就計畫設置智財營運委員會,負責在計畫執行期間處理智財權管理事宜。
本文為「經濟部產業技術司科技專案成果」
美國聯邦貿易委員會(Federal Trade Commission,FTC)根據《健康違規通知規則》(Health Breach Notification Rule,HBNR),於2023年2月1日和3月2日分別對GoodRx Holdings Inc.公司和BetterHelp, Inc.公司提出擬議命令(Proposed order)。擬議命令指經由行政機關調查案件後提出的改善建議,且經聯邦法院批准後對被調查公司生效。這兩件案例是FTC於2021年後擴大《健康違規通知規則》適用範圍從傳統的健康產業及於網路行業後的首次執法。GoodRx Holdings Inc.公司提供藥物資訊平台與折扣訊息;而BetterHelp, Inc.公司提供遠距醫療服務。兩者在2017到2020年間均向他們的消費者聲明,將妥善保護所蒐集之個資,然而卻轉手將取得個資揭露給Facebook、Snapchat和Google等第三方公司,用來進行目標式廣告的投放。 FTC對GoodRx的擬議命令要求其停止向第三方揭露使用者的個人資料,並處以支付150萬美元的罰鍰。對BetterHelp, Inc.的命令除要求其停止共享使用者的個人資料外,更要求BetterHelp, Inc.向網站的使用者進行退款,退款總額上限高達780萬美元。FTC在擬議命令中建議:涉及敏感性健康資料的事業負責人,除了需要重新檢視目前持有資料的隱私和安全性外,最好能建立一套完整的資料管理流程。流程包括對當事人充分說明蒐集利用目的、取得當事人完整的知情同意、制定完整的個人資料管理及保存銷毀程序、限制員工對資料的存取權限等等。最後也最重要的是要「信守承諾」,這兩個案例中的業者都是違反了自己當初對使用者的承諾,最終才導致被處罰的結果。
新國際協定針對未經請求之行銷電話或電子訊息展開聯合行動加拿大隱私專員於2016年6月14日表示,制定支持全球電信監管機構和消費者保護機構,針對垃圾郵件和行銷騷擾電話之跨境共同合作協議。 倫敦行動計畫(London Action Plan)備忘錄(MOU)之簽署國,現已可針對打擊跨國界或逾各個國家監管部門範圍之犯罪從事者的執法行動,相互分享資訊和情報,以獲取協助。 包括加拿大隱私專員辦公室(OPC)在內,目前既已簽署方分別為:澳大利亞通訊及傳媒管理局;加拿大廣播電視和電信委員會、韓國訊息安全局(KISA)、荷蘭消費者和市場監管局(ACM)、英國資訊委員辦公室及公民諮詢局、紐西蘭內政部、南非國家消費者委員會、美國聯邦貿易委員會和聯邦通訊傳播委員會。其他國家之政府當局亦表示願提交備忘錄,以及將來可能加入之意願。 對於加拿大隱私專員辦公室而言,這項協議將有助於達成加拿大反垃圾郵件法(CASL)關於電子郵件地址蒐集和間諜軟體之調查義務與責任,並與具有相同任務之夥伴機構間,進行偵查技巧及策略之分享。 加拿大隱私專員辦公室致力於和國內及國際夥伴合作,並已與國內之CASL執法合作夥伴及其他許多國家的隱私保護機構簽訂協議。
德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。
美國「刑事鑑識演算法草案」美國眾議院議員Mark Takano於2019年10月2日提出「刑事鑑識演算法草案」 (Justice in Forensic Algorithms Act),以建立美國鑑識演算法標準。依據該法第2條,美國國家標準與技術研究所(National Institute of Standard)必須建立電算鑑識軟體之發展與使用標準,且該標準應包含以下內容: 一、以種族、社會經濟地位、兩性與其他人口特徵為基礎之評估標準,以因應使用或發展電算鑑識軟體,所造成區別待遇產生之潛在衝擊。 二、該標準應解決:(1)電算鑑識軟體所依據之科學原則與應用之方法論,且於具備特定方法之案例上,是否有足夠之研究基礎支持該方法之有效性,以及團隊進行哪些研究以驗證該方法;(2)要求對軟體之測試,包含軟體之測試環境、測試方法、測試資料與測試統計結果,例如正確性、精確性、可重複性、敏感性與健全性。 三、電算鑑識軟體開發者對於該軟體之對外公開說明文件,內容包含軟體功能、研發過程、訓練資料來源、內部測試方法與結果。 四、要求使用電算鑑識軟體之實驗室或其他機構應對其進行驗證,包含具體顯示於哪個實驗室與哪種狀況下進行驗證。此外,亦應要求列於公開報告內之相關資訊,且於軟體更新後亦應持續進行驗證。 五、要求執法機關於起訴書或相關起訴文件上應詳列使用電算鑑識軟體之相關結果。