北美證券管理協會(North American Securities Administrators Association,簡稱:NASAA)與會成員,針對使用新興科技之不當行為人,於2018年10月10日發佈正式報告(NASAA 2018 Enforcement Report),報告指出不當行為人試圖使用新興金融商品刺激市場,使市場呈現活絡狀態。例如:炒作比特幣,該產品從2017年7月約2,364塊美元至同年12月大幅提高至2萬美元,同一時間於市場中加密貨幣市值飆漲超過5千億美元。因各種數據指標不正常的起伏,相關執法單位開始進行實際執法行動,並且特別針對加密貨幣部分進行調查。
該報告指出,部分合法企業也會透過加密貨幣和區塊鏈等,衍生性金融商品募集資本,亦即以首次代幣發行(Initial Coin Offering,簡稱ICO)之方式籌措資金。而NASAA也於監管時發現未經登記之企業,也利用此種方式進行籌資。惟,監管機構無法針對未經登記之公司進行有效之監管行為,以致,投資市場中詐欺事件層出不窮。因此,就涉嫌以ICO和加密貨幣等衍生性金融商品,進行群眾募資的未經合法登記之公司,NASAA也開始採取必要法律措施,以保護投資大眾免於受害。
一、 德州證券委員會與國家執法單位合作,於2017年12月20日對Usi-Tech Limited採取了緊急行動,此執法行動主要係因該公司以詐欺之方式欺騙投資消費者,此為國家執法單位,首次針對市場詐欺行為所進行之強制手段。
二、 北卡羅來納州證券部門以及德州證券委員會,調查BitConnect’s對加密貨幣貸款計畫之投資。該機構向投資者承諾,購買加密貨幣貸款計劃的投資將使他們有權在指定期限內獲取每月超過40%的利息,並且額外每日計算利率給予投資者。 調查後,監管機構發現,該公司未依證券交易法,以及證券經銷商相關註冊之規定,進行募資行為。以致北卡羅來納州證券部門以及德州證券委員會,隨即發佈停止運作之命令。
報告顯示,合法企業以及未經登記之企業,都得以使用ICO方式進行籌資。惟監督機構僅能就合法企業進行監管,無法有效監督未經登記之企業,為避免投資大眾因資訊不透明或資訊不對等之情況發生,導致投資人因此遭受到詐欺行為而受害。有關當局也已展開實際執法行動,仍請投資大眾多加注意。
美國食品藥物管理局(U.S. Food and Drug Administration, US FDA)綜整近20年產官學研的建議,今年7月發布《人類細胞及基因製劑生產變化及可比性試驗》(Manufacturing Changes and Comparability for Human Cellular and Gene Therapy Products)指引草案,提供細胞及基因製劑(含組織工程產品)製造商執行可比性試驗依循的標準,做為實際運作上的參考。US FDA並強調若臨床開發與製程開發同步,將會使產品品質提升、產品供應增加或製造效率提高,讓國內外申請商申請新藥臨床試驗(Investigational New Drug, IND)及上市許可有明確的遵循方向。 之所以會需要有此指引的提出,乃是因為現今全球評估生物製劑原料藥或成品在製造品質變更前後的比較,需提供可比性試驗報告,做法上都是參考2004年國際醫藥法規協和會(International Council for Harmonisation of Technical Requirements for Pharmaceuticals for Human Use, ICH)公布「生物製劑可比性試驗」(ICH Q5E Biotechnological/biological products subject to changes in their manufacturing process: comparability of biotechnological/biological products)指引,但主要適用對象為蛋白質藥品及其衍生物,並不完全適用細胞及基因製劑。 可比性試驗的目的是確保化學製造管制(Chemistry, Manufacturing, and Controls, CMC)變更前後的原料藥或成品,品質需具有高度相似性,才可引用之前的CMC或IND的資料;如果使用的細胞種類、病毒載體及組織工程產品等重大改變,已嚴重影響原料藥或成品的品質,不適用目前的可比性試驗,需重新申請IND或上市許可,將造成申請商需要投入更多的成本,影響產品上市時程。 細胞及基因製劑屬於新興療法,其可比性試驗的審查迄今全球並沒有明確的規範,都是參考ICH Q5E建議,而FDA發布本指引草案正向表列細胞及基因製劑,其驗證確校、安定性及批次變更的可比性依據。讓業者可依循本指引草案,加速細胞及基因製劑的開發、IND申請及產品上市,提升生醫產業的發展。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)
日本數位市場競爭中期展望報告提出數位市場競爭短中期策略日本數位市場競爭本部(デジタル市場競争本部)於2020年6月發布了「數位市場競爭中期展望報告」(デジタル市場競争に係る中期展望レポート案),該報告認為大型數位平台業者透過龐大的用戶資料,不斷地(1)擴大並連結用戶、(2)垂直整合上下游產業並(3)從虛擬鎖定實體的銷售,對市場形成動態競爭(ダイナミック競争)結果。此一結果將導致數位市場極易形成掠奪性定價或併購的風險、資料集中的風險、資料可靠性的風險,甚至是個人價值判斷的風險。 為促進數位市場的治理與信任,該報告提出了以下短期與中長期的政策方向: 鼓勵企業數位轉型以增加數位市場的多樣性:推廣數位轉型指標、擴大沙盒制度適用、加速數位政府戰略。 建立數位市場競爭制度:運用經濟分析強化競爭管制、推動《數位平臺交易透明法》(デジタルプラットフォーム取引透明化法)法制化、建立大型數位平台調查機制。 建構去中心化的資料治理技術:透過資料持有、交換的「去人工干預」,形成一個可信任的網路世界。 該報告已於2020年8月7日完成公眾意見募集,預計於2020年年底前提出最終報告。目前日本新經濟聯盟認為,高頻率的競爭策略以及智慧化交易模式下的反壟斷政策,除了不正競爭的禁止外,政府更應著重在透明化檢視機制的建立。此外報告目前並未處理到平台資料治理的課題,聯盟對此認為政府應更積極地從資料壟斷的概念,調整數位市場准入的障礙。
日本提出「放送法施行規則」修正草案,強化智慧防救災訊息發佈設備整備措施日本總務省鑒於311地震時媒體播送的減災效果,在2014年2月14日對日本放送法施行規則的部分修正展開公眾諮詢。此次的修正係基於放送法母法第108條規定。依據該條的規範,基幹放送業者在進行國內的廣播時,若發生暴風、豪雨、洪水、地震、大型火災或有發生之虞時,為預防其發生或減輕其所造成之損害,應進行有效之廣播。 蓋日本在311災後,因其對對社會所產生巨大的衍生影響,後續規劃研擬了許多因應法制政策及措施。根據日本內閣府「2013年防災白皮書」,日本政府在311地震後所規劃政策方向及重要施政措施有:防災對策推進會議檢討會議的最終報告、災害對策法制的改正、與防災基本計畫的修正等各層面工作。 此外,依據日本防災對策推進會議檢討會議在2012年7月所完成之報告,其中對於災害立即回應體制的充實與強化,及建立綜合的防災資訊系統,建議應蒐集並提供必要之資訊,以盡早提供根本性的改善為目標。並且,為因應災害防救需要及強化即時應變能力,建立智慧防救災體系即屬刻不容緩,如何能運用各種多元性傳遞管道,落實將緊急性災害防救重要資訊傳送至每位國民,遂成關鍵議題。 而此次放送法施行規則的修正則擬增訂第86-2條,要求基幹放送業者應就基幹放送設備等向總務省所擬定的「基幹放送等整備計畫」;其中,關於母法108條廣播之確實實施而有特別必要者,並應取得總務省之確認。修正案擬增訂的101-2條除重複上述意旨,並要求總務省在確定確認上述計畫後,並應將公開其計畫的相關內容。 其中,對於地震防災對策特別措施法(地震防災対策特別措置法) 、水防法 與關於在土砂災害災害警戒區域內等的土砂災害防止推進的法律(土砂災害警戒区域等における土砂災害防止対策の推進に関する法律)等規範所訂定易受災區域內發信設備之設置,皆納入上述應被確認計畫的範圍。 日本屬地處地震頻繁國家,對於災害防救體系甚為重視,並投入大量資源加以發展。未來日本對於推動智慧防救災體系,是否會有更多進一步法制修改及調整,值得我們持續進行關注。
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。