海藻抗溫室 日明年試驗

 

 

  日本海洋科學家最近提出一項對抗溫室效應的新計畫,準備在日本東北部外海養殖大片海藻,吸收大氣中二氧化碳。且這些海藻還可以轉化成生物質能,為人類提供大量乾淨的能源。相關技術一旦試驗成功,日後將可望納入聯合國氣候變化綱要公約京都議定書的修訂條文,並推廣到其他濱海國家。


   過去科學家一直認為,海藻生長過程中雖然會吸收大氣中的二氧化碳,但是排出的醣類物質也會被細菌分解,釋出的有機碳將再次轉變成二氧化碳。不過歐洲海洋學家最近研究發現,這些海藻排出物會帶著有機碳快速沉入深海,不至於影響大氣中的二氧化碳濃度。


  計畫領導人、東京海洋大學能登谷教授的團隊打算在海上安置一百個面積一百平方公里的特製網,用以固著兩種生長快速的藻類-馬尾藻與「 Sostera marina 」,形成一百座飄浮的海藻田。一年之後,每一座海藻田會生長成重達廿七萬噸的龐然巨物,並且在光合作用過程中吸收卅六噸的二氧化碳。海藻田上將配備電子裝置,讓科學家以全球衛星定位系統追蹤,一旦飄移而影響航道,就必須拖回原來位置。這些海藻田最後將拖回陸地,經過超高溫技術處理,產生氫與一氧化碳,再轉化為燃燒時不會釋出二氧化碳的生物燃料,可謂一舉數得。


   美國在一九七○年代曾試驗類似的「巨藻計畫」,但後來因為大量生長後回收的海藻難以處理,計畫因此束之高閣。但日本科學家突破這項難關,設計出可行的海藻再利用方法,於是讓「以海藻吸收二氧化碳」的構想重現希望。

 

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 海藻抗溫室 日明年試驗, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=268&no=57&tp=1 (最後瀏覽日:2026/03/18)
引註此篇文章
你可能還會想看
從歐洲法院實務看資料保護在智慧聯網時代下發展-以資料保存指令無效案和西班牙Google案為例

什麼是「日本Connected Industries」?

  Connected Industries為日本產業的未來願景,透過人、機器與科技的跨界連接,創造出全新附加價值的產業社會,以達到Society5.0理想目標。例如,物與物的連接形成物聯網(IoT)、人與機器合作拓展智慧與創新、跨國企業合作解決全球議題、跨世代的人與人連繫傳承智慧與技術、生產者與消費者接觸解決商業與社會問題等。   隨著第四次產業革命到來,IoT、大數據及 AI人工製會等技術革新,日本藉由高科技、技術人才及應變能力等優勢與數據技術相結合,目標是邁向以人類為中心、解決問題的新產業社會。Connected Industries的三大支柱分別為:   一、新數據社會(New Digital Society) 消除人與機械系統的對立,實現全新的數位化社會。解決新興科學技術如AI及機器人運用上的困難,並積極活用該技術幫助並強化人類解決問題的能力。   二、多層次合作(Multilevel Cooperation) 區域、世界及全球未來面臨複雜的挑戰,必須透過企業間、產業間及國與國間的連繫合作解決課題。   三、人力資源發展(Human Resource Development) 以人類為中心做思考,積極推展數據技術的人才養成,邁向智慧與技術的數據化時代。

因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議

2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國FDA為因應藥品汙染事故公告四項製藥新指導原則

  美國食品藥物管理局(the United States Food and Drug Administration,以下簡稱FDA)於2015年2月13日公告四項與藥品製造有關之指導原則(guidance)作為補充相關政策執行之依據,主要涉及藥品製程中,藥品安全不良事件回報機制、尚未經許可之生技產品的處理模式、藥品重新包裝,以及自願登記制度中外包設施之認定應進行的程序與要求。   該四項指導原則係源於FDA依據2013年立法通過之藥物品質與安全法(The Drug Quality and Security Act,以下簡稱DQSA)所制定之最新指導原則。因2012年位於麻州的新英格蘭藥物化合中心(The New England Compounding Center),生產類固醇注射藥劑卻遭到汙染,爆發致命的黴菌腦膜炎傳染事故,故美國國會制定DQSA,以避免相同事故再次發生。DQSA要求建立自願登記制度(system of voluntary registration),倘若製藥廠自願同意FDA之監督,成為所謂的外包設施(outsourcing facilities)。作為回饋,FDA即可建議特定醫院向該製藥廠購買藥品。   而本次四項指導原則之內容,其一主要涉及外包設施進行藥物安全不良事件回報之相關規定,要求製藥廠必須回報所有無法預見且嚴重的藥物安全不良事件。在不良事件報告中必須呈現四項資訊,其中包括患者、不良事件首名發現者、所述可疑藥物以及不良事件的類型。同時,禁止藥品在上市時將這些不良事件標示為潛在副作用。第二份指導原則對於尚未經許可的生技產品,規定可進行混合,稀釋或重新包裝之方法;並排除適用某些類型的產品,如細胞療法和疫苗等。第三份指導原則涉及重新包裝之規定,內容包括包裝地點以及如何進行產品的重新包裝、監督、銷售和分發等其他相關事項。而第四份指導原則規範那些類型之藥品製造實體應登記為外包設施。為此,FDA亦指出聯邦食品藥物和化妝品法(the Federal Food Drug & Cosmetic Act)之規定裡,已經要求製造商從事無菌藥品生產時,必須將法規針對外包設施之要求一併納入考量。

TOP