開原碼授權 印度要走自己的路

  印度理工學院的 Deepak Phatak 啟動了一項建立 Knowledge Public License (知識公共授權,簡稱 "KPL" )的計畫,這種授權計畫允許程式人員跟他人分享自己的點子,但是同時保留軟體的修改權。它很像柏克萊軟體發行計畫或 MIT 授權計畫。目的是希望為建立一種環境,開發者既可以借助開放原始碼的合作力量,又能保護個人的利益。這項計畫還有助於舒緩開原碼運動和專屬軟體商之間日趨緊張的關係。


   Phatak 的授權計畫有著先天的數量優勢。由於委外的興起和繁榮,印度已經成長為一個重要的軟體發展中心。 Phatak 也發起了一項 Ekalavya 計畫,鼓勵大家提出開原碼運動的新概念。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 開原碼授權 印度要走自己的路, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=531&no=55&tp=1 (最後瀏覽日:2025/11/21)
引註此篇文章
你可能還會想看
日本發布《IoT產品資安符合性評鑑制度建構方針》順應國際IoT產品資安政策趨勢

日本經濟產業省於2024年8月23日發布《IoT產品資安符合性評鑑制度建構方針》(IoT製品に対するセキュリティ適合性評価制度構築方針),以順應國際IoT產品資安政策趨勢,因應日益嚴重的資安威脅。 本制度為自願性認證制度,由情報處理推進機構(情報処理推進機構,簡稱IPA)擔任認證機構進行監督。以IoT產品為適用對象,制定共通因應資安威脅之最低標準,再依不同產品特性需求,制定不同符合性評鑑等級,依評鑑結果進行認證,授予認證標章。不同評鑑等級差異如下: 1.等級一:為共通因應資安威脅之最低標準,可由供應商進行自我評鑑,並以評鑑結果檢查清單申請認證標章,IPA僅會針對檢查清單進行形式確認。 2.等級二:係考量產品特性後,以等級一為基礎,制定應加強之標準,與等級一相同係由供應商評鑑,自我聲明符合標準,IPA僅會針對檢查清單進行形式確認。 3.等級三:係以政府機關或關鍵基礎設施業者為主要適用對象,須經過獨立第三方機構評鑑,並以IPA為認證機構進行認證,確保產品值得信賴。 本制度可協助採購者及使用者依資安需求,選用合適的IoT產品,亦有助於日本與國際IoT產品資安符合性評鑑制度進行協作,達成相互承認,減輕IoT產品供應商輸出海外之負擔。

歐盟執委會將修正ePrivacy指令

ePrivacy指令修正背景   原資料保護指令將於2018年由一般資料保護規則所取代,在此一背景下,電子隱私指令除補充資料保護指令外,亦訂定關於在電子通訊部門的個人資料處理的具體規則。具體作法,如在利用流量和位置資訊於商業目的之前,應徵得用戶的同意。在ePrivacy指令未特別規定的適用對象,將由資料保護指令(以及未來的GDPR)所涵蓋。如,個人的權利:獲得其個人資料的使用,修改或刪除的權利。   歐盟執委會為進行ePrivacy指令(Richtlinie über den Datenschutz in der elektronischen Kommunikation)改革,於2016年8月4日提出意見徵詢摘要報告,檢討修正ePrivacy指令時著重的的幾個標的: (1)確保ePrivacy規則與未來的一般資料保護規則之間的一致性。亦即評估現有規定是否存在任何重複、冗餘、不一致或不必要的複雜情況。(如個人資料洩漏時的通知) (2)指令僅適用於傳統的電信供應商,而在必要時應該以新市場和技術的現實的眼光,重行評估更新ePrivacy規則。對於已成為電子通信行業新興創新的市場參與者,如:提供即時通訊和語音通話(也稱為“OTT供應商”),由於目前不需要遵守ePrivacy指令主要規定,而應納入修正對象。 (3)加強整個歐盟通訊的安全性和保密性。ePrivacy指令在規範上,確保用戶的設備免受侵入、確保通信的安全性和保密性。本指令第5條第3項,儲存資訊、或近用已存儲在用戶設備之資訊,需得其的同意。該條款的有效性已有爭論,因為新的追踪技術,如:指紋識別設備可能無法被現有的規則所涵攝。最後,有認需得同意的例外規定列表,有必要延伸到對資訊之其他非侵入性的儲存/近用:如網路分析等。這些都是應予以仔細評價和檢視之對象。 公眾諮詢摘要報告內容   經過4月13日到7月5日的公眾諮詢,歐盟執委會於8月4日提出報告。   諮詢意見主要來自德(25.9%)、英(14.3%)、比(10%)、法(7.1%)的回覆。   一、是否有必要在電子通訊部門訂定隱私特別規定? 市民與公民團體咸認有必要在電子通訊部門,甚至流量資料和位址資訊也應該訂定新規(83%)、企業則認為無甚需要,只有在秘密性規則(31%)與流量資料(26%)有需要訂定;主管機關則咸認需要特別規定。   二、現行指令是否已足達成其立法目的?76%市民和公民團體認為未達立法目的,理由如下: ePrivacy指令的範圍太狹小,不包括即時訊息、語音通話(VoIP)和電子郵件應用服務。 規範太模糊,導致會員國之間適用結果和保護程度的差異、不一致。 法律遵循的程度展法程度太差。   三、是否應為新通訊服務訂定新規?   76%市民和公民團體認為適用範圍應該涵蓋到OTT上。

為加強兒少網路安全,英國通訊管理局發布「兒少風險評估指導原則」以及「兒少保護行為準則」

為加強兒少網路安全,英國通訊局(Office of Communication)於2025年4月24日發布「兒少風險評估指導原則」(Children's Risk Assessment Guidance)以及「兒少保護行為準則」(Protection of Children Codes of Practice),以供受規範之網路服務提供者遵循。 「兒少風險評估指導原則」要求所有受《網路安全法》(Online Safety Act 2023)規範的「使用者對使用者服務」(user-to-user service)和「搜尋服務」(search service)的服務提供者,在完成兒少存取評估(children’s access assessments)確認服務有可能被兒少存取後,必須在三個月內即2025年7月24日前,完成兒少風險評估(children’s risk assessments)。 至於「兒少保護行為準則」一經國會審議通過,則自2025年7月25日起生效,服務提供者必須採取「兒少保護行為準則」規定的安全措施(safety measures),或實施其他有效手段,以減少上開風險發生的可能性。 「兒少保護行為準則」列出的安全措施包括: 一、更安全的資訊發送: 有運作推薦系統(recommender system)且存在中度或高度有害內容風險的服務提供者,應調整其演算法,確保不向兒少推播有害內容。 二、有效的年齡驗證: 風險最高的服務提供者必須使用高度有效的年齡驗證,以識別使用者是否為兒少。 三、有效的內容審查: 服務提供者應建立內容審查機制,一旦發現有害兒少的內容時,能迅速採取行動。 四、更多的選擇與支援: 服務提供者應賦予兒少更多的控制權,包括允許對內容或貼文表達不喜歡、接受或拒絕群組聊天邀請、封鎖用戶、將用戶設為靜音、以及關閉自己貼文的留言功能等。 五、簡便的舉報與申訴: 服務提供者應提供透明的舉報與申訴管道,且確保提出舉報和申訴的管道和方式對兒少而言相對輕鬆且簡單。 六、強化的治理: 服務提供者應設置負責兒童安全的專責人員,高層團隊並應每年審查兒童風險管理情況。 如服務提供者未能履行上開義務,英國通訊局可處以罰款。必要時,甚至可向法院聲請禁制令封鎖該平台。 處在網路無限擴張的時代,保障兒少網路安全絕對是重要且不容忽視的課題。英國通訊管理局發布的實施作法,非常值得我國觀察學習與參考。

梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管

  2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」   此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。   目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。

TOP