印度理工學院的 Deepak Phatak 啟動了一項建立 Knowledge Public License (知識公共授權,簡稱 "KPL" )的計畫,這種授權計畫允許程式人員跟他人分享自己的點子,但是同時保留軟體的修改權。它很像柏克萊軟體發行計畫或 MIT 授權計畫。目的是希望為建立一種環境,開發者既可以借助開放原始碼的合作力量,又能保護個人的利益。這項計畫還有助於舒緩開原碼運動和專屬軟體商之間日趨緊張的關係。
Phatak 的授權計畫有著先天的數量優勢。由於委外的興起和繁榮,印度已經成長為一個重要的軟體發展中心。 Phatak 也發起了一項 Ekalavya 計畫,鼓勵大家提出開原碼運動的新概念。
本文為「經濟部產業技術司科技專案成果」
搜尋引擎巨人Google在西班牙施行新著作權法前關閉該國的Google新聞服務。西班牙將於2015年1月正式施行新著作權法,新法中出版商將可向新聞内容聚合平台業者(news aggregator)徵收授權金,且著作權人不得約定不行使該權利。新法中並未明定新聞内容聚合平台業者如Google新聞與Yahoo新聞應支付的授權金額,但卻規定違反此法令的公司需繳付75萬美金的罰款。 近年來,歐盟各國如德國、法國相繼推行新著作權法,讓著作權人得向新聞内容聚合平台業者徵收授權金,而Google則透過與出版商約定不行使該權利作爲因應措施。而由於西班牙此次的新法規定著作權人不得約定不行使該權利,導致Google首次因法規而關閉該國的Google新聞服務。 Google表示此項新法規要求出版商向Google新聞徵收授權金,哪怕它只是一則小小的摘要。Google新聞的總監Richard Gingras表示Google新聞並未含任何廣告亦無實際盈利;相反地,該服務為出版商帶來超過百萬的讀者流量。新法規的施行將增加Google新聞的營運成本,因此才在新法規施行前關閉西班牙版本的Google新聞服務。 此舉將造成當地網路媒體與出版業者的網路流量損失,爲此西班牙新聞媒體組織 (The Spanish Association of Daily Newspaper Publishers, AEDE)發表聲明希望西班牙政府、歐盟當局及反托拉斯聯盟能介入調解此次Google新聞的關閉事件,以保護人民與企業的權利。 新法施行在即,究竟Google新聞的關閉會對此次西班牙新著作權法的施行造成何種影響值得後續關注。
WiMAX頻譜開放 攪亂一池春水 美國新能源法案預定於2010年前興建新核電廠美國總統布希於本( 8 )月 8 日簽署能源法案,法案目的除減少對國外能源依賴外,另亦授權興建一座新核能發電廠。布希政府希望於 2010 年前開始建造核能廠。 儘管核能爭議大,但現今國際油價已飆高達每桶 63 美元,在美國參眾兩院日前通過、布希總統今簽署的能源法案中,同意興建的新核電廠,是美國自 1979 年三哩島事件以來,第 1 座預定興建的核能廠。 能源法案的通過,被視為是布希政府一大勝利,也是相關利益團體石油公司的勝利。布希自 2001 年上台即大力鼓吹此法案,經 4 年多爭議,眾參院才分別在 7 月 28 、 30 日通過。 除新建核電廠外,能源法案內容還包括:准許在海岸探勘石油與天然氣,這項鬆綁引起環保人士質疑;提供美國能源公司超 10 年 145 億美元的減稅優惠,這項優惠讓華府輿論質疑,減稅是「肥了石油公司,苦了消費者與納稅人」;另外,鼓勵開發新的潔淨能源、再生能源,提供 18 億美元的獎助,這項具有環保意義、找尋替代能源的條文,也被質疑資助少得可憐。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。