2015年11月3日德國杜塞道夫地方法院(以下稱德國法院)依據歐盟法院之《華為訴中興》案(Huawei v ZTE case, 16 July 2015, Case C- 170/13)的先決裁判發出第一例禁制令(Cases 4a O 144/14) (Nov. 3, 2015)。這個判決係義大利公司SISVEL公司認為青島海爾德國公司(以下稱海爾公司)侵害其有關GPRS及 UMTS無線網路專利組合之標準專利,並已經對海爾公司發出專利侵權通知,並發出授權要約,海爾公司則抗辯認為,SISVEL僅通知其母公司而未通知其分公司,且其授權要約不符合FRAND原則。
德國法院認為,SISVEL只要將足夠的專利侵權資訊及授權要約通知海爾母公司進而據以判斷是否與SISVEL展開授權協商即可,若要求專利權人亦須一一通知其分公司,則將流於形式。
其次,海爾公司雖因認為SISVEL要求之授權金過高,故拒絕SISVEL的授權要約並提出反向要約,但卻未在提出反向要約後之合理期間內依據歐盟法院在《華為訴中興》案先決裁判中之見解,對SISVEL提供保證金以擔保其授權協議尚未達成前對SISVEL專利之使用費用。故德國法院進一步對前述合理期間給予確切期間,即拒絕專利權人要約時起一個月內。
至於海爾公司主張SISVEL授權要約不符合FRAND原則之抗辯,德國法院認為因海爾公司未履行前述程序,故尚無須判斷SISVEL授權要約是否FRAND原則。故何種情形屬於符合FRAND原則,仍留由後續之實務見解加以補充。
本文為「經濟部產業技術司科技專案成果」
2018年06月07日,歐盟執委會對2021年到2027年期間擬定單一市場計畫和預算,該計畫預計支用40億歐元保護歐盟消費者和促進歐洲中小企業(SME)競爭力,同時加強歐盟內部市場管理,促進人類、動植物健康和動物福利,並建立歐洲金融數據統計框架。 新的單一市場計劃包括: 1. 增加中小企業競爭力,促進產業升級、擴大產業規模並幫助中小企業有跨境競爭的能力; 2. 落實消費者保護政策,確保產品安全,並在產品和服務有疑義時,確實協助消費者獲得補償; 3. 支持食品安全生產,預防及根除動植物疾病,以及改善歐盟的動物福利,而歐盟公民得以繼續在歐洲單一市場取得安全和優質的食品,同步提高人類和動植物健康之水平; 4. 加強歐盟執委會和會員國之間的合作,確保歐盟法規範得到適當實施和執行; 5. 響應市場發展,幫助歐盟執委會加強運用資訊科技產業工具與知識(例如大數據和演算法等等)。 6. 補助會員國的統計機構,提供資金給政策領域中與數據相關的發展、製作和傳播,提高歐洲統計數據品質。 歐洲單一市場讓歐洲人民能自由旅行、工作和生活,同時擁有更多的選擇和更低廉的價格,能在歐盟境內更輕鬆地進行商品服務交易。因此,歐洲單一市場可說是歐洲最佳資產,可以促進歐洲企業成長且在全球化市場中培養競爭力。而2021-2027年計畫將確保當地有效達成單一市場連續性,為歐盟人民和企業提供更好的投資與生活環境。
日本內閣府就著作權法提出部分條文修正案日本內閣府於2018年年初提出著作權法部分條文修正案,本次修正集中在合理使用之相關規定,並於5月17日經參議院審議通過。文部科學省在修正概要說明中,提及本次修法放寬合理使用範圍,包括下列幾種情事: 為促進大數據所提供之加值服務或技術創新開發等目的,且不致影響著作之市場價值(如圖書檢索加上部分書籍資訊、論文比對檢索顯示部分原始論文內容)。 老師以教學或提供學生預、複習為目的,利用他人著作所製作之教材,以網路傳輸之方式,上傳後供學生下載使用。 為提供視障者閱讀或因肢體殘障而無法翻閱書籍之人,而將書籍文字以錄音方式呈現。 將美術館或博物館之展出品,製作成可使用於平板電腦之數位檔案,並用於展館導覽上。 上述情形均無須得著作權人之同意。日本政府期待透過本次修法, 在教育推動、便利身障人士及美術館之數位典藏利用等相關數據資訊產業發展上,有效緩解可能產生侵害著作權之問題,故此次條文修正案及後續相關立法動態值得密切注意。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
日本垃圾電郵法制2005年修正動態