美國懷俄明州(Wyoming)於2019年1月18日提出S.F. 0125法案,經參眾議院三讀及州長簽署通過後,將在同年7月1日生效,代表數位資產(digital assets)正式納入懷俄明州州法第34編第29章。該法定義數位資產為表彰經濟性、所有權或近用權,並儲存於可供電腦讀取之格式(computer readable format)中,又區分為數位消費資產(digital consumer assets)、數位證券(digital securities)及虛擬貨幣(virtual currency)等三類。
數位消費資產,是指為了消費、個人或家用目的使用或購買的數位資產,包含:(1)除法律另有規定外,開放區塊鏈代幣(open blockchain tokens)視為個人無形資產(intangible personal property),(2)非屬本章數位證券和虛擬貨幣範圍內之數位資產;數位證券則是指符合懷俄明州州法第17編第4章有價證券定義的數位資產,但排除數位消費資產及虛擬貨幣;又,虛擬貨幣是指使用數位資產作為交易媒介(medium of exchange)、記帳單位(unit of account)或具儲存價值(store of value),且尚未被美國政府視為法定貨幣(legal tender)。
本次修法規定數位資產均為個人無形資產,另將數位消費資產視為該州州法下之一般無形資產,數位證券視為該州州法下之有價證券及投資性財產,虛擬貨幣則視為金錢,有論者表示本次修法有助於促進數位資產流通,並鼓勵各州跟進修法。然此舉是否有助於該州推行數位資產產業,尚待持續觀測,始能得知其對業界與政府監管所造成之影響。
美國最高法院於2月22日針對Life Technologies Corp. v. Promega Corp.一案作出判決,對於向美國境外供應多元件侵權產品的其中單一元件,並不構成35 U.S.C. 271(f)(以下稱271(f))的侵權責任。 美國醫療生技公司Promega控告同業LifeTech侵害其專利,指稱LifeTech所製造的基因檢測套件中之組裝元件中之DNA聚合酶元件(Taq polymerase)是由美國製造,運送到英國組裝後,再販售至世界各地。Promega認為LifeTech將單一元件輸出至英國組裝的行為,已違反271(f)(1)中的「境外組裝」規定。 該案爭點之一在271(f)(1)之詮釋及適用爭議:「一當事人未經授權自美國向境外供應專利中全部或相當部份("all or a substantial portion")之元件,若元件尚未組合,而在美國境外將主要部分加以組合,如同其在美國境內將該元件組合,應視為侵權者而負其責任。」 地院認為271(f)(1)中的"all or a substantial portion"不符合本案只提供單一元件之情形,判定侵權不成立。不過CAFC認為地院有不當解釋271(f)(1),故認定LifeTech所販售的聚合酶元件符合271(f)(1)規定的"substantial portion"應解釋為"重要的部分",故推翻一審判決,判定侵權成立。 最高法院解讀271(f)(1)時,將其中的"substantial portion"解釋為"大量"或"多的",因此認定所述"單一元件"並不構成271(f)(1)中的"substantial portion",原因為單一元件並非法條所指的"多量"。 最終,最高法院認為,本案被告僅供應"單一元件"在境外組合,因此並不構成35U.S.C.271(f)(1)法條所定義之侵權行為。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
微軟對歐盟要求其分享開放原始碼的指令提起上訴微軟對歐盟指令提起第二次上訴,該指令是命令微軟分享其原始碼給開放原始碼軟體公司。 在歐盟第二最高法院判決前,微軟公司發言人 Tom Brookes 說新上訴,是基於 6 月份( 2005 年)與歐盟總部的協議,要透過法庭決定原始碼的爭議問題。 他說「微軟提起申請要求法院撤銷原訴訟決定,特別是關於將通訊協定的原始碼廣泛的授權,因為這都是微軟的智慧財產權」。 「我們採取這步驟,讓法庭能可以檢視現下的爭議,並就全世界智慧產權的保護提供一個長遠的意義」。 歐盟發言人 Jonathan Todd 說微軟公司軟體的互用性( interoperability )協議,無法用智慧財產加以保護,並且應該能在開放原始碼公司中,根據以往的營業執照加以流通使用。 不過,歐盟的執行者-歐洲委員會認為,相信此事件將獲得解決,如果盧森堡的原審法院維持 2004 年 3 月對微軟公司的規範。在 2005 年 8 月微軟公司最近的訴訟中,顯示出第二種情況。 Todd 說歐盟意識到微軟公司並沒有在與開放原始碼公司的分享協議中,分享微軟的觀點。 另外微軟第一次上訴判決的日期益尚未決定,微軟起訴乃針對歐盟命微軟必須支付 4 億 9 千 7 百萬歐元( 6 億 2 千萬多萬美元)的反拖拉斯罰金,這也是歐洲有史以來最大的反拖拉斯罰金。 歐盟聲稱軟體巨人已過度行使其 Windows 軟體統治,而把競爭者封鎖在市場外。它命令微軟公司出售不含媒體播放器的軟體,並強迫它與其他伺服器軟體競爭者分享技術,使那些競爭者的產品可以與 Windows 為作業軟體的電腦進行更好的訊息交流。
從國內外實務見解談企業對員工之電子郵件監控