歐盟在2014針對行動健康(mHealth)綠皮書進行公共諮詢,要求相關之人針對mHealth發展的十一個議題提出意見。進行的時間從2014年4月10日至7月10日,歐盟在2015年1月12日公布諮詢結果,總計有211位參與者回覆,其中71%由組織機構回覆,29%則為個人意見回覆。
在諮詢報告中所提列之十一項議題包含:1. 健康資料的安全性、2. 巨量資料、3. 於目前歐盟法規下的適用情況、4. 病人安全性與資訊透明化、5. mHealth在醫療照護系統的定位以及平等使用、6. 互通性、7. 補助機制、8. 責任歸屬、9. 研究與發展、10.國際合作、11. mHealth市場發展性等。
針對上述議題,諮詢報告提出幾項認為未來發展mHealth時面臨之問題以及應該如何因應。包含: 1. 多數認為應建立隱私安全保護工具,包括資料加密以及驗證機制。逾半數的人認為應該執行資料保護,將法規適用於mHealth相關器材。2. 近半數的人要求病人安全以及資料的透明性,因此,應可建立制度使這些mHealth APP經品質認證通過後上市。3. 對於mHealth的業者而言,認為需要有清楚的法規架構、互通性以及共通的品質標準建立,才能有助於產業的發展。4.透過立法、自律機制以及指導原則的建立,使mHealth APP所衍生之問題能有規範可供解決。5. 部分認為mHealth的成本效益需要有更多的數據證據分析來評估。例如,在美歐國家曾進行一項測試,mHealth可以減少50-60%肺部慢性疾病病人住院以及再次入院的比例。此外,mHealth亦可減少25%老人照護的成本支出。6. 歐盟以及各個國家應該確認mHealth的互通性,基於持續性的照護以及研究目的,能有共通可相互使用的電子醫療紀錄。7. 其次則是應該促使開放標準,並有醫療專家以及使用者積極參與使mHealth能完備進行。
在歐盟此的mHealth公共諮詢報告中,已提出未來可能面臨的問題,歐盟嘗試以既有之指令規範檢視mHealth衍生之問題是否能夠加以因應解決,其主要目的仍在於讓消費者能安全使用,同時亦希望能促進產業開發與進步,其後續發展值得觀察,同時亦可提供相關業者開發時之參考。
德國政府於2018年7月18公佈「聯邦政府人工智慧戰略要點」(Key points for a Federal Government Strategy on Artificial Intelligence),係由德國聯邦經濟事務及能源部、聯邦教育及研究部,與聯邦勞動及社會事務部共同撰寫而成。 德國政府表示該要點將作為推動人工智慧技術與產業發展的基礎方針,並希望以負責任的方式以及朝向社會利益發展的方向進行人工智慧開發與應用。 德國人工智慧戰略要點摘要如下: 1. 研究能量:必須大幅增加研究支出並且爭取世界一流人才。 2. 人工智慧能力應泛分佈在社會各處:各學科與產業領域皆需要人工智慧。 3. 資料作為人工智慧發展的基礎:資料是人工智慧發展的重要關鍵,德國的資料發展重點將放在資料品質的強化。 4. 基礎設施:人工智慧中重要的技術「深度學習」,不僅需要大量資料,同時還需要強大的計算能力,德國需要加強計算能力的硬體設備。 5. 經濟應用:德國數位化發展的下一步需要仰賴人工智慧技術,尤其是中小企業採納人工智慧技術方面將會是焦點之一。 6. 社會法制:人工智慧發展過程中牽涉許多道德以及法制、監管議題,德國政府認為這些都必須請不同利害關係人共同公開討論。 7. 國際合作:德國作為歐盟會員國之一,未來的人工智慧發展將力求與歐盟各國合作。 整體而言,德國的人工智慧戰略著重在建立人工智慧生態系統,並強調人與機器之間的合作關係,為人工智慧產業發展奠定良好基礎。德國政府將基於此要點繼續制定進一步的人工智慧戰略,並預計將於2018年12月公佈德國的人工智慧戰略完整報告。
歐盟法院判決二手軟體銷售合法歐盟法院在UsedSoft GmbH v. Oracle International Corp.(Case C-128/11)一案中,認定軟體開發商之散佈權在第一次銷售後即耗盡,不得限制其後二手軟體之再銷售。此一判決發展將影響軟體開發商之市場銷售策略。 本案軟體開發商Oracle以授權合約中的禁止移轉條款為據,起訴欲終止UsedSoft的二手軟體銷售模式。在此商業模式中,原始被授權人書面說明其被授權使用某軟體,同時聲明後續不再使用,相關文件經公證後,UsedSoft即以此文件及合約進行二手軟體的銷售,新的使用者可直接由UsedSoft取得軟體。 本案的關鍵點在於著作權是否隨著軟體第一次銷售而權利耗盡,如權利耗盡則合約中的禁止移轉條款將無任何效力。在傳統軟體光碟銷售的情形,被授權人可以將軟體再轉賣給任何人,權利耗盡是被確認的,但網站下載的軟體販售模式,權利是否隨之耗盡,則不無疑問。 歐盟法院在本案判決中表示,不管是負載於光碟或網站下載的軟體銷售,一旦開發商售出軟體,其權利即隨之耗盡;但同時也指出,如果原授權使用數量較多,權利耗盡並不得作為後續二手軟體切割販售授權的依據,開發商也不因此判決而必須提供軟體支援給二手被授權人。 此一判決可能刺激二手市場的成長,但同時也可能對軟體開發商帶來負面影響,開發商無法再掌握確實的被授權人,也無有效的方法確認原始授權人是否仍使用軟體。建議軟體開發商應檢視其授權作業,並嘗試從授權合約中處理,例如增加授權轉讓時應通知開發商的條款等。
何謂「AI創作物」?日本智慧財產戰略本部之「次世代智財系統檢討委員會」於2016年4月18日公布的報告書針對「AI創作物」有諸多討論,截取部份內容如述。 以現行著作權法來看,自然人創作產生的創作物,受到著作權保護並無疑問。倘若係自然人利用AI做為道具產出的創作物,若具備(1)創作意圖;(2)創作貢獻,兩種要件,亦得取得權利。然而,若該創作物僅透過人類指示,過程係由AI自主生成,此時該創作物即屬於AI創作物,目前非屬著作權法保護之範圍。惟上述三種情況在外觀辨識上極為困難。換言之,人類創作物與AI創作物之界線已愈趨模糊。 AI創作物可能具備多種態樣,包括:音樂、小說等,甚至包括新技術及服務的生成。以音樂、小說為例,由於日本著作權法係以「創作保護主義」為前提,只要該創作物完成時具有原創性,即受著作權保護,AI的特性可能會造成該當著作權保護之著作物數量遽增;若AI產生的成果屬於技術或服務,以專利審查需具備新穎性、進步性等要件而言,得獲取專利權難度相對比較高。 而日本政府在討論AI創作物是否具有「保護必要性」,主要係以智財權「激勵理論」出發,該理論核心在於保護人類的投資行為應獲得合理報酬,才有續行創作的動機。
德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。