印度理工學院的 Deepak Phatak 啟動了一項建立 Knowledge Public License (知識公共授權,簡稱 "KPL" )的計畫,這種授權計畫允許程式人員跟他人分享自己的點子,但是同時保留軟體的修改權。它很像柏克萊軟體發行計畫或 MIT 授權計畫。目的是希望為建立一種環境,開發者既可以借助開放原始碼的合作力量,又能保護個人的利益。這項計畫還有助於舒緩開原碼運動和專屬軟體商之間日趨緊張的關係。
Phatak 的授權計畫有著先天的數量優勢。由於委外的興起和繁榮,印度已經成長為一個重要的軟體發展中心。 Phatak 也發起了一項 Ekalavya 計畫,鼓勵大家提出開原碼運動的新概念。
本文為「經濟部產業技術司科技專案成果」
為了致力於確保及避免因特定奈米材料的曝露而不經意對環境、健康與安全(Environmental, Health and Safety,簡稱EHS)帶來潛在危害,美國環保署(Environmental Protection Agency,簡稱EPA)預計將於今(2011)年1月針對奈米材料的管理規範公佈三項新規定,此舉將使得EPA更能對於目前既有與未來新興奈米材料上有更充分的管理空間,同時這三項新規定也將接受來自公眾與各界人士的意見評論。 這三項新規定分別與顯著新用途規則(Significant New Use Rule)、試驗規則(Testing Rule)和資料收集規則(Data Collection Rule)有關。首先,就顯著新用途規則而言,多年來相關倡議團體(advocacy group)請求EPA將既有的奈米材料視為是「毒性物質管理法」(Toxic Substances Control Act,簡稱TSCA)下的顯著新用途,依此EPA將可管理奈米銀、奈米級二氧化鈦、奈米級氧化鋅等材料,亦可因此對要求廠商限制產量、採取勞工安全措施、進行毒性測試,並要求廠商不得故意將奈米材料釋出或排放至環境中。雖然現在尚無法確知詳細法令規定,但已知EPA有意透過TSCA第5條處理上述種種問題,其可能作法為奈米材料將不再受既有化學物質並非顯著新用途的限制,而任何以既有化學物質製成的新型奈米材料將被視為是顯著新用途。 其次,則是試驗規則,目前EPA對於特定奈米材料要求進行90日呼吸毒性試驗,而新規定將在TSCA第4條之下,要求對奈米粘土、奈米氧化鋁、奈米管等也進行相同的試驗。此係由於目前在經濟合作開發組織(Organization of Economic Cooperation and Development,簡稱OECD)主導的毒性試驗計畫之下,仍未有其他國家願意主導奈米黏土、奈米氧化鋁的試驗,以及通常90日呼吸毒性測試所費不貲,故未來美國預計率先投入,各界亦期盼EPA所提出的新規定將准予廠商以合作提出申請,以利於降低成本並落實相關試驗。 此外,資料收集規則將要求廠商必須正式遞交相關奈米材料的EHS資料,以供EPA進行評估審查,故新規定將在TSCA第8條之下,將原先EPA「奈米材料管理計畫」(Nanoscale Materials Stewardship Program,簡稱NMSP)的自願性參與改為強制性的資料收集,然而由於TSCA中規定對於僅使用少量奈米材料或作為研究目的者,可申請免除資料收集,故廠商仍可依此排除此一義務。 綜合以上,使用相關奈米材料的廠商應密切觀察未來三項新規定的發展動向,以確定日後如何遵守EPA的相關法令規定,落實風險管控,保障自身權益。
英國消費者保護法明確將數位內容商品消費納入規範,加重企業經營者責任英國在今年10月1日正式實施新的消費者保護法,除了明確規定30天內可以退還瑕疵商品外(舊法並無規定明確的期間),最主要重要變革在於納入數位內容商品消費的相關條款,以促進目前蓬勃發展的數位內容產業。 依照新法的規定,所謂的數位內容係指以數位形式(in digital form)所產製或提供之資料,據此包括了任何可以下載的商品以及串流服務,例如app、音樂、電影、遊戲以及電子書。其中關於消費者之保障如下: 一、在一定要件下有權利要求企業經營者修復或替換有瑕疵之數位內容商品; 二、若數位內容商品之瑕疵無法回復時,得要求企業經營者退還百分之百所支付的款項; 三、除此之外,若是數位內容商品因故而造成消費者的載具損害時,例如因所販售的軟體帶有電腦病毒而使消費者電腦中毒,企業經營者應負損害賠償責任。 根據英國娛樂產業公會(Entertainment Retailers Association),英國在去年(2014)有關數位內容商品(音樂、影片、遊戲)的消費額達到28億英鎊(約897億新台幣),英國舊消費者保護法並未針對數位內容商品有明確的規範,尤以近年數位內容商品的糾紛不斷(尤以遊戲為大宗),此次修法無疑是對常在網路購買數位商品的消費者一大保障。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。