英政府推動開源碼計劃

  由英國政府所資助成立的一項計畫,希望透過開放原始碼廠商目錄及程式碼資料庫的建立等措施,加速公家單位對開放原始碼軟體的採用。這項名為「開放原始碼學院」( Open Source Academy )的計畫,是由副首相辦公室( Office of the Deputy Prime Minister )的電子創新投資計畫所贊助,預計在本月內將正式宣佈。


  參與該計畫的開放原始碼協會( Open Source Consortium )執行總監表示,英國的公家機關在開放原始碼的採用上落後於歐洲各國,而這項計畫將改變目前的現況。地方政府已經可以透過網站開始分享程式碼,例如「地方政府軟體協會」( Local Authority Software Consortium )的網站。這項計畫裡的其他專案還包括了政府機構的入口網站計畫,可藉以尋找開放原始碼供應商的資訊;以及開放原始碼顧問的專業鑑定模式。

本文為「經濟部產業技術司科技專案成果」

※ 英政府推動開源碼計劃, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=527&no=67&tp=1 (最後瀏覽日:2026/04/30)
引註此篇文章
你可能還會想看
美國廠商使用之DMCA侵權調查正確性遭質疑

  一項由華盛頓大學所發表的研究聲明指出,媒體工業團體正使用有瑕疵的方式調查peer-to-peer網路文件共享中侵害著作權的問題。包括M.P.A.A.、E.S.A.、R.I.A.A等團體,不斷寄出逐年增加的DMCA侵權移除通知(takedown notices)給各大學和其他的網路業者。許多大學會在未經查證的情況下直接將侵權移除通知轉寄給學生,R.I.A.A.甚至跟進其中的一些侵權報告並將之寫入財務報告中。   但在2008年6月5日由華盛頓大學的助理教授等三人所發表的研究中認為這一些侵權移除通知應該更審慎檢視之。研究指出,這些團體在指控檔案分享者的調查過程中有嚴重的瑕疵,可能使對方遭受不當的侵權指控,甚至可能來自其他網路使用者的陷害。在2007年5月及8月的兩次實驗中,研究員利用網路監控軟體監控他們的網路流量,實驗結果顯示即使網路監控軟體並未下載任何檔案,卻仍然接收到了超過400次的侵權警告信。   該研究結果顯示執法單位的調查過程中只查詢了網路分享軟體使用者的I.P.位址,卻未真正查明使用者正在下載或是上傳的實際檔案為何,在這種薄弱的搜查技巧跟技術方式之下任何使用網路文件分享軟體的使用者都可能被告,不論其所分享的檔案是否侵權皆如此。

美國眾議院一致通過電子郵件保護法案

  美國眾議院於2016年4月27日一致同意通過支持電子郵件保護及雲端隱私法案(Email Privacy Act, EPA),本法案之後將會要求執法部門於搜查電子郵件或儲存於雲端設備的資料時,必須向法院取得搜查令,才能取得超過180天以上的資料。   本法案係針對1986年推出的《電子通信隱私法(Electronic Communication Privacy Act, ECPA》進行補強,因為目前科技的進步,早已遠超過ECPA是在網路興起前所得規制的範圍,在當初ECPA法案訂定之初,人民仍有定期刪除E-mail以保持硬碟空間的習慣,但相較於現在多數人都已使用雲端信箱的習慣下,如仍能讓警方等恣意調查任何人的信箱,往往可取得巨量的消息,因此本次的修正可預期將更能使相關規範符合時宜需求。   本次修正重點如下: 1.過往之ECPA規定要求聯邦機構在調查超過180天的電子郵件時只需要取得傳票即可,現在則是需要取得搜查令。 2.要求政府機構必須先取得法院的搜查令,才可以要求供應者揭露其保有之資訊。 3.要求執法部門應於取得資料的10天內向資料被揭露者提供相關證明,如涉及政府單位者則縮短至3天。   雖然EPA在眾議院內獲得美國兩黨的一致通過,但仍須經參議院下一波的投票表決,才能決定本案是否得順利通過。

新加坡修訂「建築物資通訊設施實施條例」

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

TOP