過去,在Tesla的總部大廳有一道專利牆,然現在已將它們移除,並不代表任何意義了,象徵進入推動類似「開放原始碼軟體」的概念,促進電動交通工具科技的發展。電動車製造商Tesla 的執行長Elon Musk表示S電動車款將仿效「開放原始碼軟體」的概念,免費提供製造者使用相關專利,以加速電動車產業的發展,因電動汽車的銷售量,仍未及一般汽車銷售量的1%;再者,假如電動車廣泛的發展,亦可降低電池交換站等基礎設施的成本。
Tesla為促進永續運輸的發展,將釋出數百件專利,且不會針對任何基於善意使用Tesla技術的人,提起專利訴訟,並進一步表示「假如我們是創造電動交通工具的開路先鋒,卻同時佈下許多智財地雷,禁止其他人踏入電動車產業領域,豈不是和我們的理念背道而馳。」Elon Musk坦言當他經營第一間公司時,認為專利等同於獎勵,因此設法努力取得專利;但之後體認到專利某程度阻礙進步,且保護的是大企業而非發明人本身,亦即企業有如獲得一場訴訟的門票,必須盡量避免運用此手段。
每年全球有100億元的新車產量,Tesla的生產速度根本不足以應對碳危機,易言之,在如此廣大的市場,Tesla真正的敵人為世界各地工廠每日傾瀉出產的汽油車,而非其他的電動車製造商,故釋出專利的舉動,相信將能促始其他電動車製造商,甚至全世界的電動車產業,因此共同且加速發展的科技平台而受惠。
2019年2月13日,歐盟針對數位化單一市場著作權指令(Directive on Copyright in the Digital Single Market,2016/0280(COD))(下稱著作權指令)之爭議條款第11條及第13條進行討論修正,並達成共識。 從2016年9月,歐盟委員會提出修改新版著作權法,一直到去年9月12日,通過「著作權指令」法案,兩年多的改革過程始終產生多方爭議;其中,最具爭議性的有兩大條款:第11條「連結稅」(link tax),是要求網路平台業者在使用或摘錄其著作內容時,需向上傳的出版、新聞業者支付授權費用,對於Google、YouTube等網路巨擘易造成傳播新聞資訊的阻礙;而第13條「上傳過濾器」(upload filter),則是強調網路平台業者需負監督責任,防止上傳者侵權行為,現今流行的模仿搞笑影片、歌曲混音、翻唱影片等涉及部分著作權問題者,都有可能受到法規影響而大量減少。 近二十年以來,網路平台業者大多可以避免侵權責任,只要他們不知道上傳的內容侵權,並在發現侵權後立刻將內容移除。此次,著作權指令將加強規範於網路平台業者的行為,要求平台業者建立有效過濾機制,適當監督新聞傳播及熱門資訊之分享,並保護出版業、新聞業、文創產業等的著作權,且未來允許網路平台業者須支付授權費給著作權人。 此次修正的著作權指令法案,歐洲議會將預計於3月或4月進行投票,確認修法是否通過。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
歐盟資料保護工作小組修正通過GDPR個人資料當事人同意指引因應歐盟「通用資料保護規則」(The General Data Protection Regulation,或譯為一般資料保護規則,下簡稱GDPR)執法之需,針對個人資料合法處理要件之一當事人「同意」,歐盟資料保護工作小組(Article 29 Data Protection Working Party, WP29)特於本(2018)年4月10日修正通過「當事人同意指引」(Guidelines on consent under Regulation 2016/679),其中就有效同意之要件、具體明確性、告知、獲得明確同意,獲有效同意之附加條件、同意與GDPR第6條所定其他法定要件之競合、兒少等其他GDPR特別關切領域,以及依據指令(95/46/EC)所取得之當事人同意等,均設有詳盡說明與事例。 GDPR第4條第11項規定個人資料當事人之同意須自由為之、明確、被告知,及透過聲明或明確贊成之行為,就與其個人資料蒐集、處理或利用有關之事項清楚地表明其意願(unambiguous indication)並表示同意。殊值注意的是,如果控制者選擇依據當事人同意為任何部分處理之合法要件,須充分慎重為之,並在當事人撤回其同意時,即停止該部分之處理。如表明將依據當事人同意進行資料之處理,但實質上卻附麗於其他法律依據,對當事人而言即顯係重大不公平。 換言之,控制者一旦選擇當事人同意為合法處理要件,即不能捨同意而就其他合法處理的基礎。例如,在當事人同意之有效性產生瑕疵時,亦不允許溯及援引「利用合法利益」(utilise the legitimate interest)為處理之正當化基礎。蓋控制者在蒐集個人資料之時,即應揭露其所依據之法定要件,故必須在蒐集前即決定其據以蒐集之合法要件為何。
歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。
中國 REACH 成形,台灣準備好了嗎?-從中國新化學物質環境管理辦法看我國新化學物質管理