日本政府認為IoT、Big Data以及人工智慧等破壞式創新技術的出現,目前世界正處於「第四次工業革命」之重大變革,而究竟IoT、Big Data及人工智慧的發展會對經濟、社會產生什麼程度的影響,公私部門有必要共同對應及討論共同戰略願景。因此,經濟產業省於2015年9月17日在「產業構造審議會」下設置「新產業構造部會」,以公私協力的方式共同策定未來產業願景。 該會議的具體檢討事項包括: 1. 具體變革狀況檢視:IoT、Big Data、人工智慧等技術,究竟會對產業構造、就業結構,以及經濟社會系統具體產生如何的改變。 2. 變革之影響:上述的變化可能創造機會,亦會產生風險。因此,於經濟社會層面要怎麼解決迎面而來的挑戰,是否有可能克服相關限制,亦為應關注的焦點。 3. 把握國際上的動向:上述的機會及風險,各國政府及企業等應對的戰略究竟為何。 4. 日本政府具體之特定處方籤:於上述背景下,日本政府及民間企業,應提出個別之戰略及對應方法。 綜上所述,公私部門應協力做成包含時間進程的「指南針」,最後提出2030年「新產業構造願景(新産業構造ビジョン)」,對將來經濟社會系統進行預測。
歐盟議會對於電信改革法案並無達成任何協議2009年05月06日歐盟議會對於大幅度改革之電信法審議並未通過,議會各會員對於創設一強而有力的電信管制體有共識,惟包裹立法中有一條款對「公民之接近網路權」干涉甚鉅,而引發疑慮。 歐盟電信法改革法案乃採取「包裹式立法」,該改革法案主要著重在科技的進步與高速網路接取的迅速成長。歐盟議會支持其他的改革,包括創設一歐盟電信管制體,賦予其權力以監督電信單一市場;分配電信頻譜予新興行動科技以及促進公民線上資訊保護的隱私權。 然而,針對人民接近使用網路權的限制範圍,卻無法達成協議,導致整個電信包裹立法仍在捷克的議會主席與議會代表之間繼續尋求妥協之道。 如果人民被發現正下載非法的著作物時,法國與英國代表則主張欲擁有較大的權限,以限制人民的接近網路使用權(此乃因其內國法已有針對下載盜版著作的處罰性規定)。其他會員國則採取較為寬容的態度,認為此涉及人民隱私範圍之保護、行為自由、表意自由與資訊接近權,應更審慎為之。 縱使該包裹立法並未被全部支持,一些觀察家認為大部分的改革條款應會通過。然而議會代表與電信委員會對此則未表達肯定之意。有意者認為:若此改革法案繼續維持包裹立法架構,恐將導致整個法案因此延宕,若能針對共識部份先行通過,似乎較能達成有效率的管制措施。
歐盟執委會宣布「軟體開源授權及複用」決定歐盟執委會於2021年12月8日宣布「軟體開源授權及複用」決定(COMMISSION DECISION on the open source licensing and reuse of Commission software)。本決定規範執委會軟體之開源授權條件與複用方式,其軟體開源授權流程如下: 一、執委會依本決定(下同)第5條授予其軟體的開源授權證應為歐盟公共授權(the European Union Public Licence, EUPL),除因(1)適用第三方軟體的互惠條款,而強制使用其他開源授權證,或替代開源授權證比EUPL更便於人民使用該軟體;(2)適用第三方軟體之授權條款,存在多個開源授權標準(不含EUPL),則應優先選擇授予最廣泛權利的開源授權。 二、透過第8條對智慧財產權進行核實,包括:(1)軟體識別(2)對軟體的智慧財產權進行驗證;及(3)安全驗證。 三、依第6條規定將所有開源軟體置於資料庫,供公民、公司或其他公共服務有潛在利益者取得。 另外,依第四條規定,本規則不適用於以下情形:(1)因第三方智慧財產權問題,無法允許複用的軟體;(2)該原始碼之發布或共享,對執委會、其他歐洲機構或團體的資訊系統或資料庫安全構成實質或潛在風險;(3)因法律規定、契約義務或性質,其內容須被視為機密之軟體;(4)依(EC)1049/2001第4條所列之情形,包含但不限於:因公共利益、國家安全、隱私保護、商業利益、訴訟或審計之利益等,該軟體須被排除,或只能由特定之一方取得或管理;(5)委託由執委會進行研究產生之軟體,若公開將干擾臨時研究結果之驗證或構成拒絕註冊有利於執委會之智慧財產權的理由。
因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。