中國大陸於2017年8月在杭州設立網路法院(Internet court),專責處理網路購物、線上著作侵權等涉及網路爭議之案件。該法院網站設有「線上訴訟平台」,當事人在該平台使用手機號碼註冊帳號後,可遞交起訴狀和相應的證據材料,勾選所需依據的法律條文,系統將自動讀取該當事人之相關身分資訊、線上交易過程及各類表單資料。
近日該網路法院針對一線上著作權侵權案件,於審判過程中採用區塊鏈電子數據作為證據,等同認可區塊鏈電子存證之法律效力。由於區塊鏈作為去中心化的數據庫,每筆網路交易訊息皆同步於整個區塊鏈網路,因此區塊鏈有著難以竄改、刪除的特性。杭州網路法院將從第三方存證平台的資格、侵權網頁取證技術可信度及區塊鏈電子數據保存完整性進行審查,對本案電子數據之證據效力作出認定。
杭州網路法院認為,對於採用區塊鏈等技術進行存證之電子數據,應秉承開放、中立的態度進行個案分析認定,不得因為區塊鏈等技術本身屬於新型且複雜之技術而排斥或提高其認定標準。本案認可區塊鏈技術存證之法律效力,將對區塊鏈未來應用發展有很大的影響,隨著技術發展逐步成熟,產業應用的實際效果也愈發顯著。
針對Google 於去年11月被美國東北大學(Northeastern University)向德州東區聯邦法院馬歇爾分院 (the US District Court for the Eastern District of Texas in Marshall) 所提出之專利侵權訴訟案,指控Google的核心網絡搜索系統所使用的搜索技術涉嫌侵害東北大學所擁有的專利, Google 於日前指稱該訴訟無任何法律依據, 指出其搜索核心技術是由Google自行研發並主張東北大學的專利為無效之專利且即使東北大學的專利為有效,因原告於發現其所稱被告可能侵權之事實後,從未告知Google並已拖延太久時間(約兩年半)才提出訴訟,原告已喪失請求賠償的權利。Google請求法院駁回原告之訴,並宣告原告的專利為無效。如上述請求不被法院接受,Google 則請求陪審團審判 (由此可看出Google 不怕輸的決心)。 此案的原告為美國東北大學和Jarg公司。Kenneth Baclawski (前東北大學教授及Jarg公司創始人) 於1997年取得了編號為5,694,593之搜索技術相關的專利, 比Google公司的成立早了一年。原告訴請法院除去被告之侵害、並請求損害賠償及支付訴訟費用等。 對於Google的回應,Michael Belanger, Jarg公司的另一名創始人兼總裁Michael Belanger表示,由於全案已進入訴訟程序,不便加以評論。
保護、分級與言論(上) 美國OMB發布人工智慧應用監管指南備忘錄草案美國行政管理預算局(United States Office of Management and Budget, OMB)於2020年1月發布「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」備忘錄草案。該備忘錄草案係基於維護美國人工智慧(AI)領導地位之目的,而依據美國總統川普(Donald John Trump)於2019年2月簽署之「維持美國人工智慧領導地位(Maintaining American Leadership in Artificial Intelligence)─行政命令13859號」,並在啟動美國人工智慧計畫後180天內,經OMB偕同科技政策辦公室(Office of Science and Technology Policy, OSTP)、美國國內政策委員會(United States Domestic Policy Council)與美國國家經濟委員會(National Economic Council)與其他相關機構進行協商,最後再由OMB發布人工智慧應用監管指南備忘錄草案,以徵詢公眾意見。 該備忘錄草案不僅是為了規範新型態AI應用技術,更希望相關的聯邦機構,在制定AI應用產業授權技術、監管與非監管方法上,能採取彈性的制定方向,以避免過度嚴苛的規定,反而阻礙AI應用的創新與科技發展,繼而保護公民自由、隱私權、基本權與自治權等價值。同時,為兼顧AI創新與政策之平衡,應以十大管理原則為規範制定之依據,十大管理原則分別為: 培養AI公眾信任(Public Trust in AI); 公眾參與(Public Participation); 科學研究倫理與資訊品質(Scientific Integrity and Information Quality); AI風險評估與管理(Risk Assessment and Management); 獲益與成本原則(Benefits and Costs); 彈性原則(Flexibility); 公平與反歧視(Fairness and Non-Discrimination); AI應用之揭露與透明化(Disclosure and Transparency); AI系統防護與措施安全性(Safety and Security); 機構間之相互協調(Interagency Coordination)。 此外,為減少AI應用之阻礙,機構制定AI規則時,應採取降低AI技術障礙的方法,例如透過聯邦資料與模型方法來發展AI研發(Federal Data and Models for AI R&D)、公眾溝通(Communication to the Public)、自發性共識標準(Voluntary Consensus Standards)之制定及符合性評鑑(Conformity Assessment)活動,或國際監管合作(International Regulatory Cooperation)等,以創造一個接納並利於AI運作的環境。