美國聯邦巡迴上訴法院(CAFC)於2008年8月13日,在Jacobsen v. Katzer一案中,對於未遵守自由軟體授權條款而使用他人著作,作成構成著作權侵害之判決,扭轉地方法院之判決結果。由上訴人Jacobsen經營的JMRI(Java Model Railroad Interface),透過多數參與者集體協作的程式DecoderPro,為開放資源的自由軟體,採取Artistic License模式,供模型火車迷編輯解碼器晶片(decoder chip)的程式以操控模型火車;被告Katzer從 DecoderPro下載了數個定義檔來製作一套市售軟體稱Decoder Commander,卻未遵守該自由授權條款,包括未標示JMRI為原始版本之著作權人、可從何處取得標準版本、及修改後版本與原始版本差異部份之註記等。
Jacobsen認為Katzer的侵害著作行為已造成不可回復之損害,請求法院暫發禁止命令(preliminary injunction)以停止Katzer的違法行為,地方法院認為被告乃違反非專屬授權契約,應依違反契約責任負責,不另構成著作侵權行為,駁回暫發禁止命令的請求。
聯邦巡迴上訴法院認為本案爭點在於「自由軟體授權條款的性質究屬契約內容(covenant)或授權條件(conditions of the copyright license)?」,由於Artistic License之用語為「在符合下列條款之條件下」(provided that the conditions are met )方能重製、修改及散布,以遵守授權條款為取得授權之條件,本案中Katzer未能遵守條款,因而根本未取得授權,其行為屬無權使用而構成侵害著作權,是以命地方法院就暫發禁止命令一事重新審理。在善意換取善意(Creative Common,創用CC)及分享著作的潮流下,支持者譽此結果為自由軟體的一大勝仗。
本文為「經濟部產業技術司科技專案成果」
美國國會圖書館(Library of Congress)依據著作權法(Digital Millennium Copyright Act,簡稱DMCA)第1201(a)(1)條授權,於2015年10月28日發布著作權法相關之例外規則(final regulations),明定10項與使用者權益相關的行為屬於著作權法保障之例外情況,將納入合理使用(fair use)範圍,不再視為侵害原著作權人之權利。上述合法的科技使用行為包含: 1.為了教育及其他非商業用途之目的,對視聽媒體所為之重製行為。 2.為了讓視覺或其他功能障礙者使用,對已購買之電子書所為之破解或形式轉換行為。 3.為了連結其他電信公司之網絡,針對手機及其他行動裝置之應用程式,所為之解鎖行為(unlocking)。 4.智慧型手機及其他行動裝置之越獄(jailbreaking)行為。使用者得利用外部工具取得系統最高權限,且不受原系統限制而安裝或解除安裝合法軟體。 5.智慧型電視之越獄行為。使用者得利用外部工具取得系統最高權限,不受原系統限制而安裝或解除安裝合法軟體。 6.汽車軟體之診斷、修理或改裝行為。車主或修車廠等人員得自行診斷、修理或改裝汽車軟體,不限於僅有汽車原廠得檢測或變更軟體。 7.為了促進電腦軟體的安全性,針對個人擁有之消費性家電、車輛及醫療裝置所為之軟體相關安全研究與測試行為。 8.某些需要透過與官方伺服器連線方能正常運作之遊戲軟體,於官方永久結束營運之後,使用者可自行建立伺服器,供擁有合法軟體的使用者繼續使用,但此項條款不包含主要內容儲存於官方伺服器之遊戲。 9.使用者可修改軟體程式,並使用其他的3D列印原料,不限於原廠預設之原料。 10.病人取得自身醫療裝置或監視系統數據之行為。本例外規則通過後,病人可合法取得自身醫療裝置之數據,而不違反著作權法之科技保護措施,不再受限於原先僅有醫院或醫療裝置公司可取得植入式醫療裝置之數據。 美國著作權法授權國會圖書館每三年發布一次例外規則,用以改善著作權法之「科技保護措施」的負面影響,並維護公眾接觸資訊之公共利益。上述第6至10項為本次新增之項目,但本次例外規則並未通過視聽著作空間轉換(space-shifting)及格式轉換(format-shifting)之行為、電子書專用閱讀器之越獄行為、或遊戲機(Video Game Consoles)之越獄行為。 針對開放汽車軟體之破解,某些汽車製造業者基於安全理由表示反對,但消費者方面,表達贊成意見人數明顯多於反對意見者。尤其是福斯汽車(Volkswagen)設計作弊程式通過廢棄排放檢驗的事件發生後,開放消費者得自行診斷、修理或改裝汽車軟體,將能降低此類弊端發生之機率,讓具有汽車軟體相關知識的消費者有機會能檢測汽車本身軟體是否符合法令規範或有任何異常。
歐盟將修正公部門資訊再利用(PSI)指令2019年1月22日,歐盟執委會(European Commission)、歐洲議會(European Parliament)與歐盟理事會(Council of the EU)就修正「公部門資訊再利用指令」(The Directive on the re-use of public sector information,PSI Directive)的提案達成協議。歐洲議會則於4月4日通過提案,待歐盟理事會簽署正式的指令。 PSI Directive經過2003年制定(Directive 2003/98/EC)、2013年修正(Directive 2013/37/EU),於2017年為了履行指令規定的定期審查義務,召開了公眾線上諮詢,之後歐盟執委會根據諮詢結果及對指令的影響評估,於2018年4月25日通過修訂指令的提案,並於2019年1月達成協議。 此次修正將該指令更名為「開放資料與公部門資訊指令」(The Directive on the Open Data and Public Sector Information,以下稱新指令),預計能排除目前仍存在的公部門資訊取得障礙,並且要求將政府資助研究所產出的研究資料(publicly funded research data)也開放給公眾。此次修正的重點內容如下: 1、所有依據國家取用文件規定(national access to documents rules)下可取用的公部門資訊,原則上可以免費再利用,或者公部門可以收取為了提供、傳播資料所產出的費用,但該費用以不超過邊際成本(marginal costs)為限。這項改變,將使更多的中小企業和新成立公司能順利進入資料經濟市場。 2、新指令特別指出統計資料或地理空間資料屬於高價值資料集(high-value datasets),這些資料集具有高商業潛力,可以加速各種資訊產品或增值服務的產出,例如人工智慧。而新指令特別要求這些資料集應免費提供、使機器可讀,且透過應用程式介面(APIs)使他人能取用。但經評估後發現免費提供會造成市場競爭扭曲時,則不在此限。 3、關於公營事業及公共運輸所產生的有價值資料,不在現行PSI Directive規範範圍內,而各國對於是否必須提供資料有著不同的規定,但現在都必須依照新指令的規定使公眾可以免費再利用,不過仍可設定合理規費來收回相關行政費用。 4、有些公部門與私人企業制定了複雜的資料協定,導致公部門資訊被壟斷,新指令則要求各會員國應落實資訊透明,以及限制公部門與私部門訂立排除其他人可再利用公部門資訊的協定。 5、促進公部門資訊以動態即時資料方式發布,並透過使用者介面(APIs)使更多動態即時資料能被使用。而這也將使企業發展創新產品或服務,例如行動APP。 6、關於政府資助的研究,新指令將促進「政府資助研究而產出的研究資料」能更容易的被再利用,故各成員國被要求建立一致的再利用政策,使這些研究資料能透過資料庫(repository)被開放取用(open access),包含先前已經存入該資料庫的資料。 總而言之,本次修正將能夠降低中小企業進入市場的障礙,並增加公部門資訊的透明度和即時流通,也使公營事業資訊及政府出資研究所產出的研究資料能納入開放資料的範疇。
歐盟將立替代能源新法日前,歐盟執委會於2008年1月23日提交了一份關於整合性發展境內替代能源之新法制架構指令建議案,並欲藉該建議案來進一步促進生質能、太陽能與風能等相關新興能源技術之開發。該建議案還提到,歐盟所屬會員國原則上須依據於2005年當時替代能源之貢獻比例為基礎,再向上調增5.5%後來作為該會員國之替代能源預定貢獻目標。不過,考量各會員國之國情並不相同,故該建議案要求歐盟對於各會員國替代能源預定貢獻目標之制定,應採「差別化」之方式,使其可先自由調整與決定究欲採取何種比重與模式來發展各類替代能源,最後,再將所決定之能源發展策略大綱置於國家行動方案書內(National action plans, 簡稱NAP),並於2010年3月31日前提交執委會進行審核。此外,執委會也設定了一系列短期性目標,以確保能漸次穩定地朝2020年之目標前進。而有關開發生質能及永續性方面,鑑於生質燃料之發展仍具相當之爭議,故於飽受各界沉重之壓力下(如:非政府民間組織以及科學聯盟團體),未來布魯塞爾方面勢要提出一更加周嚴之永續性基準,以確保在該建議案所制定之生質燃油目標下,不會進一步導致生態系統失衡、森林濫伐、人口遷徙、糧食價格上漲以及釋放更大量CO2等問題產生。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。