目前,美國證券管理委員會(U.S. Securities and Exchange Commission, SEC)對於數位貨幣的態度傾向於將代幣視為有價證券。《代幣分類法》(Token Taxonomy Act)草案則是持反對意見的聲浪¬,由美國眾議員Warren Davidson為首,並且獲得跨黨派多位眾議員的支持。《代幣分類法》主要的訴求是希望可以將數位代幣排除於證券,進而排除虛擬貨幣之稅務。重點有三:
然而,目前美國證券管理委員會的態度仍未改變,並且於2019年4月3日發表〈數位資產「投資契約」分析之架構〉(Framework for “Investment Contract” Analysis of Digital Assets)。該分析架構說明:凡符合Howey Test之標準的「投資契約」即屬於「證券」,有《證券交易法》的適用。〈數位資產「投資契約」分析之架構〉甫發表,Warren Davidson與另外五位眾議員隨即重新提起2019年版的《代幣分類法》草案,是繼2018年9月、2018年12月第三度提起相關法案。楊安澤(Andrew Yang,美國首位角逐總統的華裔候選人)在2020年民主黨黨內總統初選政見中,亦援引《代幣分類法》草案,希望可以與連署《代幣分類法》草案的美國國會議員和懷俄明州(Wyoming)的立法者,共同擘畫有利於商業與人民的數位資產框架。
本文為「經濟部產業技術司科技專案成果」
英國政府為達成於2021年使完全無須人為操控的自動駕駛車輛可在英國公路上行駛之目標,提出新保險責任制度。透過自動駕駛和電動車輛法案的提出,將為自動駕駛車輛可合法上路行駛鋪路,從而帶動自動駕駛車輛產業發展。整體而言,一旦此立法正式通過,除了代表英國政府正式樹立自動駕駛車輛的保險框架里程碑外,也象徵英國朝向2021年的目標又更邁進一步。
英國建立幹細胞研究網絡英國財政大臣十六日在倫敦宣佈,政府將在其10年發展計劃中建立一個全國性的幹細胞研究網路,以鞏固英國在該領域的領先地位。 英國工黨政府一直對幹細胞研究提供支持,並且率先立法,允許治療性人類胚胎幹細胞研究。但是治療性胚胎幹細胞研究一直遭到人權組織的反對,使幹細胞研究機構在資金籌措方面陷入困境。為此,英國政府作出建立幹細胞研究網路的決定,無疑是為了加強英國在國際幹細胞研究領域的領先地位。 布朗當天在下議院宣佈二○○五年財政年度預算計劃時說,英國政府從二○○二年起的三年內向幹細胞研究撥款四千萬英鎊,另外,英國醫學慈善機構韋爾科姆信託公司承諾向幹細胞研究網路投資二千萬英鎊。
日本經產省於2015年1月15日提出《不正競爭防止法》中期報告書並預計將提出不正競爭防止法修正案為因應日本2014年接連發生重大營業秘密外洩之事件而使日本國內公司蒙受鉅額損失,日本經濟產業省於去年9月開始,積極地展開《不正競爭防止法》修法專家會議,並在2015年1月15日舉行的會議上,揭露了彙整各界公開意見後之《不正競爭防止法》中期報告書(中間とりまとめ),以作為未來修法方向之指引。 該報告書列出之修法方向區分為民事及刑事規定。第一,民事的修正重點有以下三點:(1) 減輕原告(受害企業)之舉證責任,而改由被告(非法使用營業秘密之企業)負擔;(2) 除斥期間之延長:將現行法規定之除斥期間,由10年延至20年;(3) 使用非法營業秘密而製造的物品,禁止轉讓或出口;以及新增邊境措施之規範。 第二,刑事的修正重點則有以下六點:(1) 擴大國外犯罪的處罰範圍:目前現行法僅規範「日本國內所管理之營業秘密」在國外「使用、開示」 之行為,未來將新增處罰在國外之「取得」營業秘密之行為;(2) 新增未遂犯規定,同時將繼續檢討新增共犯及教唆之處罰態樣;(3) 現行法僅規範竊取營業秘密者本人以及藉由前者直接不法取得營業秘密者為處罰對象,但鑒於智慧型手機、平版電腦等裝置(携帯情報通信端末)之普及,造成營業秘密的竊取及使用型態趨向多樣化,是故未來將新增第三人不法取得之相關處罰規定;(4) 使用非法營業秘密而製造的物品,禁止轉讓或出口:新增相關刑罰規定;(5) 法定刑之提高:目前個人最高罰金為1000萬日圓、企業則為3億日圓,未來預計調整罰金之上限;並且,將新增沒收犯罪收益及海外加重處罰之規定;(6) 擬由告訴乃論改為非告訴乃論。 綜上,經產省力爭在2015年1月26日開始的通常國會期間內,依上述之改正要點為基礎,正式提交《不正競爭防止法》之修正案,預計最快將於2016年開始實行新法 ,後續的立法進度,值得吾人持續關注。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。