澳洲政府公布「國家電池戰略」,概述澳洲將如何擴大電池製造能力和技術,提升經濟韌性和安全性

澳洲政府2024年5月23日公布「國家電池戰略」(National Battery Strategy),這是澳洲政府推動「澳洲未來製造」(Future Made in Australia)政策計畫重要的一環。該戰略概述政府將如何擴大澳洲電池製造能力和發展專業技術,提升澳洲的經濟韌性和安全性。

戰略文件中,主要行動分為五項:

一、建立電池製造能力,增強經濟韌性,利用優勢促進國家經濟增長:
以2024年4月公布的《澳洲未來製造法》(Future Made in Australia Act)作為支持電池行業的法源。政府未來10年會提供227億澳元,投資包括再生氫、綠色金屬、低碳液體燃料、關鍵礦產精煉和清潔能源製造技術。

二、培養人才知識和技能,創造澳洲本土工作機會:
建立電池製造園區,結合企業和研究機構,將電池研究集中在有顯著需求和具市場潛力的領域。

三、確保澳洲在全球電池供應鏈中的地位:
重點支持構建供應鏈韌性的製造業,透過國際合作,應對氣候挑戰,支持電力轉型,創造清潔能源貿易機會,推廣高ESG標準。

四、在永續、標準和循環經濟方面引領世界
支持澳洲各地建立電池回收設施,補助電池回收技術的研究和測試,同時要求電池產業採取嚴格和有效的ESG措施。

五、促進各級政府合作
與各級政府合作,採取一致的標準和方法發展電池技術。透過聯合採購推動電池產業,並集中管理和輔導澳洲電池製造商。

澳洲擁有豐富的礦物資源,供應全球一半的鋰,但是其所製造的加工電池元件占全球不到1%;「國家電池戰略」的發布顯示澳洲政府希望利用自身優勢,在全球能源轉型中佔有一席之地的企圖心。

相關連結
※ 澳洲政府公布「國家電池戰略」,概述澳洲將如何擴大電池製造能力和技術,提升經濟韌性和安全性, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9247&no=16&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
Hasbro以40億美金收購「佩佩豬」母公司eOne,擴大其品牌智財價值

  美國知名玩具娛樂商「孩之寶」(後稱Hasbro)日前宣布以40億美金收購知名卡通「佩佩豬」之加拿大母公司「娛樂一體」(Entertainment One Ltd,後稱eOne),Hasbro將藉著eOne所擁有的學齡前動畫資產,透過相關智財組合與品牌布局,再度擴大其在玩具娛樂市場中之優勢地位。   eOne旗下擁有《佩佩豬》(或譯為粉紅豬小妹;Peppa Pig)、《睡衣小英雄》(PJ Masks)、《瑞奇衝衝衝》(Ricky Zoom)、《小杯與小龍:萬能服務》(Cupcake & Dino: General Services)等知名動畫品牌,以及強大的故事主導特質與家庭導向故事述說能力,Hasbro表示該些優勢將吸引遊戲玩家、動畫粉絲與家庭等多元視聽者與消費者,以至將該些動畫拓展至全球。   而Hasbro已擁有許多知名玩具品牌,包括彩虹小馬(My Little Pony)、培樂多黏土(Play-Doh)等,經過本收購交易將能擴大其品牌智財之授權營收,並將該些新增動畫之智財,朝向玩具、遊戲、影片、電視、音樂及家庭品牌等多面向之全球性經營。   目前eOne董事會於10月17日以99.9%之票數同意該交易案,並已獲得美國與德國等相關監管單位之認可,尚待加拿大官方同意。期待後續Hasbro與eOne共同藉著品牌建立、創造力與故事述說等優勢能力,創造更多品牌智財之可能性。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

歐盟營業秘密指令草案因巴拿馬文件揭露事件,受到歐洲議會熱烈討論

  巴拿馬避稅文件被揭露後,引發歐洲議會(European Parliament)重新檢視正待審核的歐盟營業秘密指令草案(the proposed Directive on Trade Secrets Protection),避免企業營業秘密之保護影響揭弊人(whistleblowers)舉發企業弊端之意願。   執委會2013年11月正式提出歐盟營業秘密指令草案,目的為調合歐洲內部市場營業秘密規範,以建立保護創新者的環境,並維持歐洲企業競爭優勢。2015年12月執委會、歐洲議會及理事會(the Council of the European Union)召開三方會議協商,對於歐盟營業秘密指令內容達成共識,準備進入立法表決。   巴拿馬事件發生後,公民團體Corporate Europe Observatory之代表Martin Pigeon認為,歐盟營業秘密指令可能成為企業對付揭弊人的工具,以掩蓋不當或違法行為,而公開弊端資訊的揭弊人可能因洩漏營業秘密而有刑事責任。但主導該指令立法程序之歐洲議會議員Constance Le Grip表示,營業秘密指令會明確地將記者及揭弊人除罪化。   事實上,為了保障公共利益所為之揭露行為,執委會2013年提出的草案已納入揭弊人排除條款。根據草案第4條第2項規定,會員國應確保為了公共利益目的而揭露不當、錯誤或不法活動(revealing a misconduct, wrongdoing or illegal activity),不會觸犯(entitle)營業秘密法之任何罪名。換句話說,即便取得企業機密之方式違法,揭弊人為了公共利益之行為不會違反營業秘密指令。   歐盟營業秘密指令僅建立歐盟保障營業秘密之最低標準,若歐盟營業秘密指令順利通過,仍待會員國依據該指令各自立法,訂立境內營業秘密相關規範,以落實營業秘密之保護。

美國國防部「人工智慧國防運用倫理準則」

  美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。   美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。   倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。   美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。   除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。

TOP