美國國家安全局發布「軟體記憶體安全須知」

  美國國家安全局(National Security Agency, NSA)於2022年11月10日發布「軟體記憶體安全須知」(“Software Memory Safety” Cybersecurity Information Sheet),說明目前近70%之漏洞係因記憶體安全問題所致,為協助開發者預防記憶體安全問題與提升安全性,NSA提出具體建議如下:

  1.使用可保障記憶體安全之程式語言(Memory safe languages):建議使用C#、Go、Java、Ruby、Rust與Swift等可自動管理記憶體之程式語言,以取代C與C++等無法保障記憶體安全之程式語言。

  2.進行安全測試強化應用程式安全:建議使用靜態(Static Application Security Testing, SAST)與動態(Dynamic Application Security Testing, DAST)安全測試等多種工具,增加發現記憶體使用與記憶體流失等問題的機會。

  3.強化弱點攻擊防護措施(Anti-exploitation features):重視編譯(Compilation)與執行(Execution)之環境,以及利用控制流程防護(Control Flow Guard, CFG)、位址空間組態隨機載入(Address space layout randomization, ASLR)與資料執行防護(Data Execution Prevention, DEP)等措施均有助於降低漏洞被利用的機率。

  搭配多種積極措施增加安全性:縱使使用可保障記憶體安全之程式語言,亦無法完全避免風險,因此建議再搭配編譯器選項(Compiler option)、工具分析及作業系統配置等措施增加安全性。

相關連結
你可能會想參加
※ 美國國家安全局發布「軟體記憶體安全須知」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=8956&no=64&tp=1 (最後瀏覽日:2026/04/27)
引註此篇文章
你可能還會想看
印度電力部公布「綠色氫能政策」,擬透過政策誘因建立綠氫產業鏈

  印度電力部(Ministry of Power)於2022年2月17日公布「綠色氫能政策」(Green Hydrogen Policy),宣告未來擬透過稅制、費用等誘因,建立綠色氫能產業鏈,以達到印度於COP26高峰會所承諾之減碳目標。   有鑑於綠色氫能是直接由再生能源電力所產生,故其相較於灰色氫能(註:由石化過程所產生之氫能)及藍色氫能(註:經碳封存之灰氫)而言,擁有更低之碳排放,有助於印度於COP26高峰會所承諾之減碳目標。然於技術或經濟層面而言,綠氫成本因為其產生、運輸、儲存過程要求相當高之費用以及成本,故遲遲無法普及,印度電力部為增進業者建立氫能產業鏈之經濟誘因,於2月17日公布前揭政策,以為因應。   印度電力部前揭政策,擬針對用地、電力市場等法規進行調適,相關法規調適重點如下: 定義綠色氫能為「直供」或「轉供」再生能源電力電解所得之氫能,也包含生物質能所生產之氫能。 於2025年6月30日前營運之綠色氫能生產業者,可免除25年之州際電力傳輸費用。 前揭綠色氫能生產業者,其所使用之電力可以是就地自再生能源發電設備取得(co-located),也可以是透過電力傳輸自其他再生能源發電設備所取得,不論該綠色氫能業者是否實際營運再生能源發電設備。 綠色氫能生產設備可被視為再生能源發電設備,被設置在相關用地上,並且,將開放綠色氫能設備設置於商港區域,以利綠氫出口。 因生產氫能所消耗或購買之再生能源電力,可計入RPS或RPO(Renewable Purchase Obligation)義務容量當中。 各州輸配電業,應允許綠色氫能生產業者加入電力交易市場。 承上,綠色氫能生產業者可進入餘電交易(banking)市場,並且餘電交易手續費應不超過「前一年度再生能源FIT價格」以及「當月日前交易市場之平均交易價格」間之差額。以避免氫能業者因經濟理由而被排除於餘電市場外。   但不論如何,對於印度而言,綠色氫能還只是發展初期階段,目前綠色氫能價格為每公斤3至6.5美元,而印度政府目標是於2030年將其降至1美元。對於大量仰賴能源進口之印度而言(85%石油及53%天然氣為進口),綠色氫能對於該國之能源自主有著相當重要的角色,因此印度政府將不餘遺力發展氫能。

因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

美國上訴法院:行為人不得以「主觀上對犯罪行為之無意識」阻卻著作權之侵害

  在電腦與網際網路普及與便利的今日,只要上網搜尋一些特定軟體,非常容易就能下載侵害智慧財產權的音樂或是影片,這樣的行為當然是非法的,但在美國出現爭議,若未成年人利用電腦非法下載,可否用「不知道這是犯罪行為」來抗辯侵權呢?   美國就發生了這樣的案例,現年22歲Whitney Harper,於2004年被美國唱片業協會(The Recording Industry Association of America,RIAA)控告其使用Kazaa分享軟體,下載阿姆(Eminem)、瑪麗亞凱莉(Mariah Carey)等37首歌曲,並將該37首歌曲透過線上分享軟體讓其他使用者亦得下載,RIAA認為此行為侵害了這些歌曲的智慧財產權,要求Whitney Harper每首歌曲需付750美元懲罰性賠償。   在訴訟中,唱片公司主張,其已於每張CD上貼上警示標籤;而Whitney Harper則抗辯自己不應該負擔如此高的罰款,係因當時她只有16歲,沒有意識到未經授權下載歌曲是違法行為,且認為下載就像利用網路聽收音機節目一樣,應該是免費的,認為自己無罪。   雖然有一些法官支持Whitney Harper的爭辯,不過第五巡迴上訴法院認為,無論Whitney Harper是否知悉其下載音樂之行為係屬違法,只要唱片公司有公告未經授權之重製行為即侵害著作權,與被告Whitney Harper之主觀意識無關。最後第五巡迴上訴法院確認Whitney Harper有罪,並判定 Whitney Harper共需賠償27,750美元。   Whitney Harper不滿其判決結果,向美國最高法院提起上訴,但法院拒絕其上訴。

OECD發布《抓取資料以訓練AI所衍生的智慧財產問題》報告

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2025年2月9日發布《抓取資料以訓練AI所衍生的智慧財產問題》報告(Intellectual property issues in artificial intelligence trained on scraped data),探討AI訓練過程中「資料抓取」對智慧財產之影響,並提出政策建議,協助決策者保障智財權的同時推動AI創新。 資料抓取是獲取AI大型語言模型訓練資料之主要方法,OECD將其定義為「透過自動化方式,從第三方網站、資料庫或社群媒體平臺提取資訊」。而未經同意或未支付相應報酬的抓取行為,可能侵害作品之創作者與權利人包括著作權、資料庫權(database rights)等智慧財產及相關權利。對此,報告分析各國政策法律的因應措施,提出四項關鍵政策建議: 一、 訂定自願性「資料抓取行為準則」 訂定適用於AI生態系的準則,明確AI資料彙整者(aggregators)與使用者的角色,統一術語以確保共識。此外,準則可建立監督機制(如登記制度),提供透明度與文件管理建議,並納入標準契約條款。 二、 提供標準化技術工具 標準化技術工具可保護智財權及協助權利人管理,包括存取控制、自動化契約監控及直接支付授權金機制,同時簡化企業合規流程。 三、 使用標準化契約條款 由利害關係人協作訂定,可解決資料抓取的法律與營運問題,並可依非營利研究或商業應用等情境調整。 四、 提升法律意識與教育 應提升對資料抓取及其法律影響的認知,協助權利人理解保護機制,教育AI系統使用者負責任地運用資料,並確保生態系內各方明確瞭解自身角色與責任。

TOP