印度理工學院的 Deepak Phatak 啟動了一項建立 Knowledge Public License (知識公共授權,簡稱 "KPL" )的計畫,這種授權計畫允許程式人員跟他人分享自己的點子,但是同時保留軟體的修改權。它很像柏克萊軟體發行計畫或 MIT 授權計畫。目的是希望為建立一種環境,開發者既可以借助開放原始碼的合作力量,又能保護個人的利益。這項計畫還有助於舒緩開原碼運動和專屬軟體商之間日趨緊張的關係。
Phatak 的授權計畫有著先天的數量優勢。由於委外的興起和繁榮,印度已經成長為一個重要的軟體發展中心。 Phatak 也發起了一項 Ekalavya 計畫,鼓勵大家提出開原碼運動的新概念。
本文為「經濟部產業技術司科技專案成果」
馬來西亞農產業與產品部長(the Minister of Plantation Industries and Commodities)與印尼農業部長(the Minister of Agriculture)在今(2007)年5月25日共同表示,將採取行動來反制歐洲境內對其所生產棕櫚油有破壞生態環境之虞的論述。在全球暖化的議題發燒且歐盟設定再生能源使用目標的政策導引下,以棕櫚油為原料製造生質柴油的市場需求預期會大幅增加,這兩個全球最大棕櫚油產國於是認為許多對其棕櫚油生產不符永續發展要求的「不實」指控會影響其國內相關產業之發展。兩國政府與產業代表將以舉辦座談會、拜會歐洲各國官員與非政府組織的方式來提供「正確」資訊,同時兩國亦設定提升兩國棕櫚油年產量至1200萬公噸的目標。 然而世界自然基金會德國分會(WWF Germany)所發表的報告指出,棕櫚油之需求增加恐會導致棕櫚油產國的熱帶雨林遭砍伐來作為棕櫚樹的耕地。地球之友(Friends of the Earth)表示,目前已有90%的紅毛猩猩棲息地被破壞,此趨勢繼續下去野生紅毛猩猩將在12年內滅絕;綠色和平組織(Greenpeace)則指出印尼在2000至2005年間以全球最快的速率在砍伐森林,每小時有相當300個足球場面積的林地被破壞。此外,棕櫚油永續生產圓桌會議(the Roundtable on Sustainable Palm Oil,RSPO)亦開始研議棕櫚油生產的最低生態標準,希望能確保其生產符合永續發展之要求。
日本農業數據協作平台WAGRI開始自主營運「日本農業數據協作平台」(簡稱WAGRI)於2017年內閣府計畫的支持下,委由慶應義塾大學建立,該平台具備農業數據相容、數據共有與數據提供三大機能,日本IT企業NTT、富士通、農機大廠久保田、洋馬等均已加入WAGRI試營使用行列。今(2019)年該平台將移轉予國立研究開發法人農業食品產業技術總合研究機構(下簡稱農研機構),正式開始進入商業模式營運。欲利用WAGRI之機關除須向WAGRI協議會(由農業法人、農機製造商、ICT供應商、學研機構組成,以提出建議改善、普及WAGRI為其立會宗旨)遞交「入會申請書」外,亦須向農研機構遞交「利用規約」、「數據提供利用規約」與「規約同意書兼利用申請書」。 自主營運後,原先不收費方式已變更,欲利用WAGRI之機關依據以下兩種利用平台方式,須繳納不同的費用: 數據利用(利用WAGRI數據者)、數據利用提供者(利用WAGRI數據且提供數據予WAGRI者) 平台利用月費5萬日圓 若利用有償數據時,須另外支付數據使用費 數據提供者(提供數據予WAGRI者) 平台利用月費3萬日圓 僅提供無償數據的數據提供機關,原則上不需要繳納平台利用費 我國為發展智慧農業,智慧農業共通資訊平台有提供免費OPEN DATA介接功能,近年發展智慧農業之農企/機關團體,亦有建立平台作為內部蒐集、利用數據之用,例如弘昌碾米工廠建置水稻健康管理與倉儲資訊服務平臺,未來該類平台均有可能朝商業模式發展。WAGRI建立一套商業模式嘗試自主營運,後續將持續追蹤WAGRI營運狀況作為我國智慧農業平台之運作參考。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
日本經濟產業省公布自動駕駛後續之政策方針報告書 新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。