英特爾公司宣布,將廢止一項適用於部分自家軟體的開放原始碼授權辦法。這家晶片製造公司表示,已通知開放原始碼促進會 (Open Source Initiative ; OSI) 移除英特爾的開源碼授權許可,未來不再以 OSI 認可的授權形式繼續使用。 OSI 是一個非營利性機構,其宗旨在推廣使用開放原始碼軟體,並且在 OSI 網站上公布一份開放原始碼軟體授權清單。該公司希望把英特爾開放原始碼授權 (Intel Open Source License) 「移除,未來停用」,藉此降低授權協議日益增多的情形。
授權協議如雨後春筍般地孳生,已引起開放原始碼社群人士關切,因為授權版本大增之後,有意採用開放原始碼軟體的企業必須多花一些錢評估、管理各類型的授權,無形中導致成本增加。英特爾發言人表示,決定廢止開源碼授權,是發現公司內部數年來一直未使用,公司以外的使用頻率也不高。 Smith 說,英特爾不希望讓這項授權的「解除許可」效力回溯既往,以免迫使企業重新取得程式碼的使用授權。
本文為「經濟部產業技術司科技專案成果」
2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。
歐盟執委會發布人工智慧創新政策套案歐盟執委會(European Commission)於2024年1月24日發布AI創新政策套案(AI innovation package),將提供全面性的激勵措施,協助AI新創公司、中小企業與歐盟AI技術之發展。AI創新政策套案預計將修訂〈歐盟高效運算聯合承諾〉(the European High Performance Computing Joint Undertaking),以創建AI工廠(AI factories);成立AI辦公室(AI Office);並建立歐盟AI新創與創新交流(EU AI startup and innovation communication),重點分述如下: (1)AI工廠:歐盟執委會在將2027年前透過〈歐盟高效運算聯合承諾〉投資80億歐元,在歐盟境內建設全新的超級電腦,或升級現有高效運算設備,實現高速機器學習(fast machine learning)與訓練大型通用AI模型(large general-purpose AI models),使AI新創公司有機會使用超級電腦與大型通用AI模型來開發各種AI應用。並且,AI工廠將坐落於大型資料存儲中心(large-scale data storage facility)周圍,讓AI模型於訓練時可取得大量可靠的資料。其次,AI工廠將藉由開放超級電腦來吸引大量人才,包含學生、研究員、科學家與新創業者,以培養歐盟高階AI人才,供未來歐盟持續發展可信任的AI(Trustworthy AI)。 (2)AI辦公室:該辦公室將設置於歐盟執委會內,用於確認與協調歐盟成員國AI政策的一致性。此外,該辦公室未來亦將用於監督即將通過之歐盟《AI法案》(AI Act)的執行成效。 (3)歐盟AI新創與創新交流:歐盟執委會將透過〈展望歐洲〉(Horizon Europe)與〈數位歐洲計畫〉(Digital Europe Programme),在2027年前投入40億歐元的公部門與私人投資,俾利歐盟開發生成式AI(Generative AI)模型。該政策套案亦將加速歐盟共同資料空間(Common European Data Spaces)之發展,使歐洲企業得取得可靠且具價值性之資料來訓練AI模型。最後,執委會將啟動歐盟〈生成式AI倡議〉(GenAI4EU initiative),將AI工廠所訓練之生成式AI應用於工業用與服務型機器人、醫療保健、生物科技與化學、材料與電池、製造與工程、車輛移動、氣候變遷與環境保護、網路安全、太空、農業等實際領域,刺激產業創新發展,改善人類生活。
英國政府公布物聯網設備安全設計報告及製造商應遵循之設計準則草案英國數位文化媒體與體育部於2018年3月8日公布「安全設計:促進IoT用戶網路安全(Secure by Design: Improving the cyber security of consumer Internet of Things)」報告,目的在於讓物聯網設備製造商於製程中即採取具有安全性之設計,以確保用戶之資訊安全。此報告經英國國家網路安全中心(National Cyber Security Centre, NCSC)、製造商及零售商共同討論,並提出了一份可供製造商遵循之行為準則(Code of Practice)草案。 此行為準則中指出,除設備製造商之外,其他包含IoT服務提供者、行動電話軟體開發者與零售商等也是重要的利益相關人。 其中提出了13項行為準則: 不應設定預設密碼(default password); 應實施漏洞揭露政策; 應持續更新軟體; 應確保機密與具有安全敏感性的資訊受到保護; 應確保通訊之安全; 應最小化設備可能受到網路攻擊的區域; 應確保軟體的可信性; 應確保設備上之個資受到妥善保障; 應確保系統對於停電事故具有可回復性; 應監督設備自動傳輸之數據; 應使用戶可以簡易的方式刪除個人資訊; 應使設備可被容易的安裝與維護; 應驗證輸入設備之數據。 此草案將接受公眾意見至2018年4月25日,並規劃於2018年期間進一步檢視是否應立相關法律與規範,以促進英國成為領導國際之數位國家,並減輕消費者之負擔並保障其隱私與安全權益。
何謂「Spitzencluster-Wettbewerb」?Spitzencluster-Wettbewerb由德國聯邦教育與科學部(Bundesministerium für Bildung und Forschung,BMBF)自2007年起開始推行,屬該國高科技戰略2020(hightech-strategie 2020)之政策配套措施之一,更是歐盟發展歐洲研發區位計畫(European Research Area)之一環。所謂聚落係建立在德國傳統工業區位分布上,利用群聚效應因應產業技術發展的複雜問題(產業問題非單一技術可解決),使各具專長之學研機構與企業共同分享產業問題研議出解決方案,分擔研發風險與成本等,增強合作效率,促進產業創新及升級。聚落多以成立協會(association)為主,平均每一聚落有近70個企業參與,原則上開放跨國參與者參與聚落之產學合作,並對會員收取會費。 本計畫作為重要的區域產學研合作計畫,乃承襲自德國過去不斷推動的區域產學研合作計畫,其特色是採取競爭方式選出德國境內優秀之聚落,並補助其相關研發計畫。自2007年至2015年間,已有三次選拔,並選出共15個領先聚落,分別涉及領域橫跨航太、資通訊、能源、生技等技術發展。至2015年為止總計已補助超過1300個計畫。2015-2017年將規劃有三次選拔,每回合挑選至多10個聚落獲得補助。目前本計畫已補助3.6億歐元預算,至2017年底將再投入5億歐元預算。