從2006年開始,FCC所推出的「偏遠地區醫療照護領航計畫」 (Rural Health Care Pilot Programs),扶植其國內50個不同的醫療照護寬頻網路。此計畫不僅強化了美國對於遠距醫療照護技術的需求,更被寄望發展成為一高效能之寬頻服務。而計畫中「聯盟」 (consortium-focused)的概念,更促進了城鄉醫療團隊的合作(rural-urban collaboration)。除了減低申請普及服務補助時所需花費之行政成本外,更提升了醫療業者購買所需頻寬時的議價地位。 不過美國政府並不以此為滿足,為進一步改善整體計畫的實施效益, FCC於2012年12月再次針對醫療照護普及服務進行新階段的革新,並提出「醫療照護網路基金」 (Healthcare Connect Fund),以取代原有之領航計畫(Pilot Program)。「醫療照護網路基金」規劃的目的,在於提供計畫參與者更多的彈性,以規劃其本身的網路。業者可透過購買所需之寬頻服務、自行佈建寬頻基礎建設或混合上述兩種方式,取得所需之頻寬。不過FCC亦訂定資格限制以及審查機制。目前僅有具備一定經濟規模的醫療聯盟,可自行佈建寬頻基礎建設,獨立醫療業者並不具佈建之資格。另外,FCC亦要求醫療業者須提出詳細證明,以供主管機關審查。審查文件中需證實所得頻寬資源,是透過公正的招標機制後,所採行最具成本效益之決定。 普及服務的延伸就如同規劃渠道,將水源引向一片匱乏與困境的孤島。美國在面對偏遠地區醫療資源的匱乏,以及該地醫療業者的困境時,運用寬頻網路來傳遞病患所需的服務,也透過城鄉醫療業者的結盟,讓城市醫療團隊所發展的技術,得以與偏遠地區藉提供服務後所得的實證資料,透過網路互通流通,甚至允許醫療業者佈建基礎寬頻建設,以提供更完善的服務。普及服務的概念,不應該偏離電信基礎建設的佈建,但更上一層樓的是以滿足人民基礎生存權利之必須所主導的概念。
經濟部預告試辦自願性綠色電價計畫(草案) 歐盟法院認為食品味道不屬於2001/29/EC指令所認定的著作?歐盟法院(Court of Justice of the European Union, CJEU)於2018年11月13日針對食品味道是否受著作權保護做出判決,其起因於荷商Levola Hengelo BV (“Levola”)認為同屬荷商之Smilde Foods BV (“Smilde”)所生產與銷售的起司“Witte Wievenkaas”,與Levola的起司產品“Heksenkaas”味道相同,因而控告Smilde侵害其“Heksenkaas”起司味道的著作權。 本案Levola於荷蘭地方法院中主張:食品味道著作權的定義,是指食用食品所產生之味覺整體印象,包括食品於嘴巴的口感,且該食品味道是製造者基於自身知識所創造。Levola並提出2006年6月16日荷蘭最高法院於原則上認定香水味道具有著作權的判決來支持其論點。 然而歐盟法院於本判決中指出,如果食品味道要受到著作權保護,那就必須符合「協調資訊社會下之著作權及相關權利指令」(Directive 2001/29/EC of the European Parliament and of the Council of 22 May 2001 on the harmonisation of certain aspects of copyright and related rights in the information society)(下稱2001/29/EC指令)對於著作(works)的定義,意即該著作應滿足原創性的要求,與著作能藉由精準並客觀的表達方式來識別。 係以,就本案所爭執之起司味道是否具有著作權,歐盟法院認為:因起司味道取決於消費者的味覺,其屬主觀且可變的,此缺乏精確性與客觀性,故並非2001/29/EC指令所認定之著作而受著作權保護。 不過讓人關注的是,歐盟法院特別於本判決中提到:在目前科學發展狀況下,尚無法透過一些技術或手段準確並客觀的辨識食品的味道,並就該味道與其他同類產品做區隔,所以在整體綜合考量下,才排除食品味道受著作權的保護。 基此,如果在未來科技能準確並客觀區別各種食品味道的時候,歐盟法院是否會承認食品味道符合2001/29/EC指令對於著作的定義,而讓其受到保護,此或許值得期待。
因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。