美國聯邦巡迴上訴法院(CAFC)於2008年8月13日,在Jacobsen v. Katzer一案中,對於未遵守自由軟體授權條款而使用他人著作,作成構成著作權侵害之判決,扭轉地方法院之判決結果。由上訴人Jacobsen經營的JMRI(Java Model Railroad Interface),透過多數參與者集體協作的程式DecoderPro,為開放資源的自由軟體,採取Artistic License模式,供模型火車迷編輯解碼器晶片(decoder chip)的程式以操控模型火車;被告Katzer從 DecoderPro下載了數個定義檔來製作一套市售軟體稱Decoder Commander,卻未遵守該自由授權條款,包括未標示JMRI為原始版本之著作權人、可從何處取得標準版本、及修改後版本與原始版本差異部份之註記等。
Jacobsen認為Katzer的侵害著作行為已造成不可回復之損害,請求法院暫發禁止命令(preliminary injunction)以停止Katzer的違法行為,地方法院認為被告乃違反非專屬授權契約,應依違反契約責任負責,不另構成著作侵權行為,駁回暫發禁止命令的請求。
聯邦巡迴上訴法院認為本案爭點在於「自由軟體授權條款的性質究屬契約內容(covenant)或授權條件(conditions of the copyright license)?」,由於Artistic License之用語為「在符合下列條款之條件下」(provided that the conditions are met )方能重製、修改及散布,以遵守授權條款為取得授權之條件,本案中Katzer未能遵守條款,因而根本未取得授權,其行為屬無權使用而構成侵害著作權,是以命地方法院就暫發禁止命令一事重新審理。在善意換取善意(Creative Common,創用CC)及分享著作的潮流下,支持者譽此結果為自由軟體的一大勝仗。
本文為「經濟部產業技術司科技專案成果」
日本國土交通省(国土交通省)於2021年6月25日公布「無人機載運貨物指引2.0」(ドローンを活用した荷物等配送に関するガイドラインVer.2.0)。2021年3月公布之「無人機載運貨物指引1.0(法令編)」(ドローンを活用した荷物等配送に関するガイドラインVer.1.0(法令編))係針對涉及之相關法令進行彙整,而本次則聚焦於應用方面進行詳細說明。 本指引首先於第一編指出,在引進物流無人機前,業者應先盤點該地區存在的課題,並確認無人機是否能有效解決該問題,接著嘗試提出具體解決方案,如拉長無人機飛行距離、增加使用次數,或建立可多次往返的飛行航道以增加使用頻率等。在初步確立無人機業務藍圖後,業者尚須設定物流無人機服務之目標受眾,並聯繫可提供貨物之商店及無人機業者,著手建立相關服務之運作模式。此外,為順利推動物流無人機服務,還需提高民眾對物流無人機之社會接受度,以獲得當地居民的理解及支持。最後,為確保飛航安全,業者除遵守本指引第二編所列相關法令飛行外,亦應制定安全飛行操作手冊,審慎評估起降地點之安全性,並建立一套安全管理系統。
英國醫學總會新指南 提醒醫師在保護病患隱私權和保護可能具有共同基因者健康之間做出衡平英國醫學總會(General Medical Council, GMC)在2009年9月公佈了一份有關醫師保密義務的指南(Guidance for doctors - Confidentiality),該指南針對基因檢測資訊的部份指出,病患的基因資訊和一些其他的資訊,有時也會是和病患擁有共同基因或其它連結的其他人的資訊,因為,在病患身上所診斷出來的因有缺陷基因所造成的疾病,可能也就指出了和病患有血緣關係的親屬的發病可能性,或甚至是幾乎可以確定他們未來也會發病。此時,醫師要提醒病患應該立即通知也有可能有此有缺陷基因的親屬,以期能夠協助那些親屬接受預防治療或作更進一步的檢查,對潛在的健康問題有所準備。 然而,若是病患表示了反對的意思,例如病患是來自一個破碎的家庭,和親屬的關係並不良好,或是基於其它個人的理由,所以不願意告知親屬相關有缺陷基因的風險時,則指南提醒醫師應該要自行衡量身為醫師對於保護病患所需遵守的義務,以及協助保護他人免於嚴重傷害兩者之間孰輕孰重。此外,若經過醫師的判斷之後,決定要向那些親屬告知他們所可能面對的健康風險時,醫師必須要採行不會透露病患身份的方式為之。 當然此種基因檢測資訊的通知,引起了正反兩極的評價,反對者主張此舉將嚴重侵害病患隱私權,也可能損害了醫師與病患間資訊保密的原理原則。唯贊成者則指出,許多的基因疾病,如亨丁頓舞蹈症、囊狀纖維化(Cystic fibrosis)、血友病(Haemophilia)、及乳癌(Breast cancer)等,都有著極高的遺傳性及致死率,透過此一機制所能達到的早期警告的效果,或可使得帶有相同有缺陷基因的病患親屬,能夠對潛在的健康問題及早有所準備。且若該等親屬正要或未來要透過試管嬰兒取得下一代時,亦可在執行試管嬰兒的程序中進行篩檢,防止下一代的人生繼續遭受此種有缺陷基因所帶來的疾病。
日本修正產業競爭力強化法,協助業界因應COVID-19後之新日常日本內閣於2021年2月5日通過產業競爭力強化法修正案(下稱本法),並於同年6月經國會通過。本次修正目的,為因應COVID-19所帶來影響與「新日常」(新たな日常,意指日本與各國因應COVID-19疫情影響,調整並重新建構生活、工作等基本社會活動方式的框架,追求安心、安全生活的同時擴大經濟活動),推動企業的長期化改革。對此,本法修正視為後COVID-19時代首要目標者,具體包含綠色社會(グリーン社会)、數位化(デジタル化)、以新日常為前提進行產業轉型等。 基此,此次本法的修正重點如下: (1)邁向綠色社會:企業提出與實現「碳中和」(カーボンニュートラル)相關之計畫,經主管機關認可後,該企業導入具零碳排(脱炭素化)效果產品之生產設備或生產程序、或對之進行投資,最多可免除10%的稅額,或得在提列折舊費用時,最高額外計提導入價格50%的特別折舊(特別償却)費用;企業為減少碳排放而向金融機構融資,如其能達成所設定的計畫期中目標,最多可獲0.2%的利息補助。 (2)因應數位化:企業如提出全公司的數位化商業模型改革計畫,並經主管機關認可,該企業針對應用雲端技術所進行投資,最多可免除5%稅額、或額外提列30%之特別折舊費用。 (3)企業改制以適應新日常:企業如提出應對新日常之事業再建構計畫,獲主管機關認定符合其事業類型之數位化指針(由主管機關擬定頒布)的要求,該企業於2020年與2021年度的經營赤字,直至轉為獲益之前(最長為5年),其應課稅所得的免除額最高提升為100%。 (4)允許上市公司舉行純虛擬(バーチャルオンリー)形式的股東會:創設公司法(会社法)以外之特別法規定,允許上市公司得例外以線上、無法明確定義召開地點的形式,舉行股東大會。 (5)支援新創事業:創設民間對於大型新創事業融資的債務保證制度,同時放寬國內證券投資基金對海外新創事業投資的50%上限規定。 (6)企業再生(事業再生)措施彈性化:因應COVID-19疫情對業界造成的打擊,原企業再生須透過訴外紛爭解決機制進行者,該個案得在5分之3的債權人同意減免金融債權額時,轉由法定之簡易再生程序辦理,加速企業提出的再生計畫獲得認可。 (7)將監理沙盒(規制のサンドボックス)轉型為常態型制度:監理沙盒制度之原主管法規,為生產性提升特別措施法(生産性向上特別措置法)。該制度要旨為企業得向主管機關提出計畫申請,針對個別議題或領域進行法規豁免之創新實驗;企業執行上述計畫所獲得之報告或資料,應提供予主管機關,作為檢討修訂相關法規之參考。該法因明定自施行日起三年內廢止之落日條款,預定於2021年6月廢止。因之,本次產業競爭力強化法修正時,配合納入監理沙盒制度的相關條文,而實質將其改為永久性實施之制度。
美國加州「Asilomar人工智慧原則決議」美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。