英國數位、文化、媒體暨體育部(Department for Digital, Culture Media & Sport, DCMS)於2018年3月公布5G測試平台及試驗計畫(5G Testbeds and Trials Programme)中之都市聯網計畫(Urban Connected Communities Project)政策文件,將於英國大規模推展5G試驗。同年9月4日,數位部部長宣佈其5G試驗團隊正與西密德蘭郡聯合管理局(the West Midlands Combined Authority, WMCA)及相關產業夥伴合作準備正式商業案例,預計將於2019年推行第一個計畫項目。 本項目內容側重於醫療及汽車業,包含: 1. 透過流暢的視訊方式進行遠距醫療諮詢(Outpatient appointment)或緊急醫療情況之諮詢,而該視頻之內容除可回放外,與家人及看護間並可進行共享查看,以提升醫療照護之效率與品質。 2. 「聯網救護車」:醫療輔助人員得於事故現場即時獲得專家建議,例如與顧問或臨床專家進行視訊。並於救護車內即能傳送患者之即時資訊至醫院,使患者抵達醫院時能進行快速且妥適處理。 3. 即時傳輸公共巴士上之閉路電視(CCTV)畫面,以便立即採取行動制止反社會行為(anti-social behaviour)。 計畫將可獲得高達5000萬英鎊之資金,並於柏明罕、考文垂以及伍爾弗漢普頓(Birmingham, Coventry and Wolverhampton)設立試驗中心執行相關計畫。
Viacom 對YouTube提出之著作權侵權訴訟已被駁回美國法官駁回Viacom公司對Google之影片分享網站YouTube所求償美金10億元之訴訟,這個重要的勝利潛在地強化眾多網路服務提供者所獲得之法律保護。。 此一判決結果並非表示這場爭執3年的法律大戲已結束,因為紐約媒體大亨Viacom立刻承諾對於這判決提起上訴。如最後此一判決是被確認,將可能使得影片創作在現今這數位時代中更難受到保護。 Viacom是在2007年3月對Google提起此一侵權訴訟,內容指出其電影、電視節目及其他內容被廣泛的置於YouTube網站,涉及故意侵權。Google是在2006年10月以16億5千萬買下YouTube,於本訴訟中Google以其符合數位千禧年著作權法(Digital Millennium Copyright Act)之要求,即時取下經權利人所通知後之侵權內容作為抗辯。此案因涉及數位千禧年著作權法中之安全港條款,因而被受關注。 美國紐約南區地方法院法官Stanton於判決中,表示數位內容之著作權保護,非取決於網路服務提供者是否監控其所提供的服務,而在於其於接獲著作權權利人通知後之反應。更進一步表示YouTube已盡其責任,2007年初在接獲Viacom通知其網站約有10萬件受著作權保護影片後,幾乎於接到通知之下一個工作天內便將這些影片取下。並且表示Viacom於本案所提出之法律論點太薄弱。不意外地,Viacom對此不悅的表示:此一判決基本上是有缺點的,並試圖訴諸於美國第二巡迴上訴法院。 然而,Google的法務長Kent Walker表示這是一場重要的勝利,不僅只是對Google也是對全球幾十億利用網路溝通與經驗分享的使用者,並期待將焦點集中在鼓勵毎天於全世界YouTube網站張貼並瀏覽這數量龐大且驚人的想法與創作表達。
日本《科技創新成果活用法》為推動研發制度的改革並強化研發能力及效率,日本於2018年12月14日通過法律修正案,將原《研發力強化法》(研究開発システムの改革の推進等による研究開発能力の強化及び研究開発等の効率的推進等に関する法律)更名為《科技創新成果活用法》(科学技術・イノベーション創出の活性化に関する法律),透過調整大學、國立研究開發法人(以下簡稱研發法人)的研究人員僱用制度、國家或人民安全相關研發預算的確保,以及研發法人投資科技研發成果之運用等相關制度的調整,以支持未來日本在科技創新研發能力的提升,以及研發成果的有效運用。 本次修法最大的重點,為研發法人投資研發成果運用的明文化,過去在《研發力強化法》中,僅規定研發法人得進行有助於成果運用的出資或技術協助等業務(第43條之2),但對於是否能保有因出資或技術協助所取得之收入(例如股票),則由各研發法人以其設置法另為規範;本次修正之《科技創新成果活用法》,則於第34條之5明文規定研發法人不受獨立行政法人不得持有股票的限制,可持有其運用研發成果進行技術作價投資或成立新創,所取得之股票或新股認股權,確立研發法人在支持研發成果運用上的功能與角色。
因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。