所謂的技術研究組合乃以試驗研究為目的,以「開發業界共同關鍵技術」為主要目的之非營利性質法人,日本至今共成立了兩百多個研究組合,主要透過專法創設之特殊性質法人制度,並賦予技術研究組合諸多稅賦優惠。在組織上,賦予技術研究組合亦有組織變更、分割及合併之可能,技術研究組合得以分割或轉換為公司,將研究成果直接轉化為產業化應用,技術組合之特色有以下幾點:
1.研究組合須至少二人以上之組合員發起:除企業公司外,日本國立大學法人與產業技術研究法人亦可為組合員 ,凡從事產業技術研發政府研究單位與國立大學,皆可將人力資源、研發成果投入與產業合作之技術研發活動,並從事進行試驗研究管理成果、設施使用與技術指導等事業活動
2.研究組合研發活動可運用「產業合作」、「產官學共同研發」兩種模式進行:未來技術研發組合進行組織變更成為股份有限公司時,大學或產業技術研究法人組合員亦可獲得公司股份,增加學研界加入技術研究組合誘因。3.研究組合組織型態彈性利於研發成果事業化應用:技術組合可視情況進行組織變更、合併與分割,就組織型態有更大變更與調整彈性。著眼於技術研究組合若產出相當之研發成果,則可以透過變更為公司型態,迅速將其研發成果予以產業化,亦可透過變更組織型態,而在籌措資金上有更為靈活運用方式使產業活動穩健持續地經營。
本文為「經濟部產業技術司科技專案成果」
歐洲理事會在2022年10月5日公告歐盟加密資產市場監管法(The Markets in Crypto Assets regulation bill, MiCA)草案最終條文內容,此份草案已經歐洲議會眾議員通過並提交歐洲議會經濟貨幣事務委員會(European Parliament Committee on Economic and Monetary Affairs),MiCA將於2023年年初公告於歐盟官方公報,並於2024年生效施行。MiCA屬於歐盟數位金融政策(Europe’s Digital Finance Strategy)之一環,立法目的為統一多種加密代幣(crypto token) 發行和交易的法規架構,以保護加密代幣使用者和投資人權益,為歐盟金融法規未涵蓋的加密資產(如:穩定幣)提供法律確定性,及建立歐盟層級的統一規定。值得注意的是,相關規定歐盟目前並未排除適用於非同質的加密貨幣(non-fungible tokens, NFT)。 草案前言第6c點明文,不應考慮「獨特且非同質的加密資產」(unique and non-fungible crypto-asset)的小部分獨特性和非同質性,因為大量以一系列NFT形式發行加密資產應認定是具備同質性(fungibility)之指標。從而,未來在歐盟發行NFT將適用MiCA規定,包含: 一、適用傳統金融機構資金轉帳規則(travel rules),如:確保加密資產交易可被追蹤、得封鎖可疑交易等以達到防制洗錢與打擊恐怖主義融資之目的。 二、NFT作為一種加密資產,該服務供應商必須確認加密資產來源,確保加密資產並未涉及洗錢或恐怖主義融資之風險。 三、應透過NFT服務供應商協助,才能進行用戶間交易和轉帳。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。
美國司法部稱Google的隱私權考慮是藉口美國司法部曾在2006年1月要求Google公司交出100萬張網頁資料,並提供一週內用戶搜尋關鍵字的紀錄,以協助布希政府舉證說明現行網頁過濾技術的漏洞,為捍衛兒童線上保護法(1998 Child Online Protection Act)提供辯護。但Google公司於2月17日,以大型企業商業機密外洩和用戶隱私權遭到侵犯為由,向加州法院提出措辭強硬的法律摘要報告,並拒絕美國司法部的要求。 針對Google所提出的摘要報告,美國司法部於2月24日提出回應。美國司法部公開表示,Google公司所宣稱:「提供用戶搜尋資訊將侵犯用戶的隱私權」,只不過是一個藉口。司法部進一步指出,美國線上、雅虎以及微軟等其他搜尋引擎業者都已按照要求提供了搜尋資訊。最後,司法部表示,政府為案件所需,擁有向一切機構徵求資訊的正當權利,因此Google公司仍必須將要求的資料提出。