所謂「大學共同利用機關法人」,係指日本於《國立大學法人法》(国立大学法人法)中,以設置大學共同利用機關為目的,依該法之規定設置之法人。而所謂「大學共同利用機關」,依該法之規定,則係指有關在該法所列舉之研究領域內,為促進大學學術研究之發展而設置,供大學院校所共同利用之實驗室。日本利用大學共同利用機關法人之設置,將大型研發設施設備,以及貴重文獻資料之收集及保存等功能賦予大學共同利用機關,並將其設施及設備,提供予與該大學共同利用機關進行相同研究之大學教職員等利用。
目前登錄於日本文部科學省之大學共同利用機關法人包括了「大學共同利用機關人類文化研究機構」(大学共同利用機関法人人間文化研究機構)、「大學共同利用機關自然科學研究機構」(大学共同利用機関法人自然科学研究機構)、「大學共同利用機關高能量加速器研究機構」(大学共同利用機関法人高エネルギー加速器研究機構),以及「大學共同利用機關資訊與系統研究機構」(大学共同利用機関法人情報・システム研究機構)等四者。
本文為「經濟部產業技術司科技專案成果」
為推動研發制度的改革並強化研發能力及效率,日本於2018年12月14日通過法律修正案,將原《研發力強化法》(研究開発システムの改革の推進等による研究開発能力の強化及び研究開発等の効率的推進等に関する法律)更名為《科技創新成果活用法》(科学技術・イノベーション創出の活性化に関する法律),透過調整大學、國立研究開發法人(以下簡稱研發法人)的研究人員僱用制度、國家或人民安全相關研發預算的確保,以及研發法人投資科技研發成果之運用等相關制度的調整,以支持未來日本在科技創新研發能力的提升,以及研發成果的有效運用。 本次修法最大的重點,為研發法人投資研發成果運用的明文化,過去在《研發力強化法》中,僅規定研發法人得進行有助於成果運用的出資或技術協助等業務(第43條之2),但對於是否能保有因出資或技術協助所取得之收入(例如股票),則由各研發法人以其設置法另為規範;本次修正之《科技創新成果活用法》,則於第34條之5明文規定研發法人不受獨立行政法人不得持有股票的限制,可持有其運用研發成果進行技術作價投資或成立新創,所取得之股票或新股認股權,確立研發法人在支持研發成果運用上的功能與角色。
建立基因資料庫 台灣可行賽雷拉( Cel-era)公司創始人溫特克萊首度來台,他是四年前完成人類基因體解碼的靈魂人物,他建議可運用基因解碼技術,建立基因資料庫,解決台灣醫療資源浪費。 事實上,早在2004年2月行政院科技顧問組為追蹤研究國人常見疾病與基因之間的關係,宣布推動「台灣疾病與基因資料庫」建置計畫。希望透過該基因資料庫的建立,確實掌握國人致病基因,奠定基因治療基礎,除了有效節省醫療資源浪費,更可鎖定特有亞洲疾病為研發重心,作為生技產業發展的優勢利基。台灣人口數約有二仟多萬,且具有完整健全的全民健保及戶籍資料,再加上台灣生物科技產業技術的蓬勃發展,想要建立大型的基因資料庫技術性應相當可行。國外有冰島和英國等多國發展之經驗可參考。 由於涉及人權自主、個人隱私、安全保密、社會倫理、研究成果的利益分享、以及由誰來擔任執行單位等方面的爭議,加上目前國內法令規範不足,既有相關法令多為位階較低的指導性公告,確實有必要建置相關配套制度及法律,以協助該計劃落實執行與發展。
歐盟資通安全局發布《物聯網安全準則-安全的物聯網供應鏈》歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)於2020年11月發布《物聯網安全準則-安全的物聯網供應鏈》(Guidelines for Securing the IoT – Secure Supply Chain for IoT),旨在解決IoT供應鏈安全性的相關資安挑戰,幫助IoT設備供應鏈中的所有利害關係人,在構建或評估IoT技術時作出更好的安全決策。 本文件分析IoT供應鏈各個不同階段的重要資安議題,包括概念構想階段、開發階段、生產製造階段、使用階段及退場階段等。概念構想階段對於建立基本安全基礎非常重要,應兼顧實體安全和網路安全。開發階段包含軟體和硬體,生產階段涉及複雜的上下游供應鏈,此二階段因參與者眾多,觸及的資安議題也相當複雜。例如駭客藉由植入惡意程式,進行違背系統預設用途的其他行為;或是因為舊版本的系統無法隨技術的推展進行更新,而產生系統漏洞。於使用階段,開發人員應與使用者緊密合作,持續監督IoT設備使用安全。退場階段則需要安全地處理IoT設備所蒐集的資料,以及考慮電子設備回收可能造成大量汙染的問題。 總體而言,解決IoT資安問題,需要各個利害關係人彼此建立信賴關係,並進一步培養網路安全相關專業知識。在產品設計上則須遵守現有共通的安全性原則,並對產品設計保持透明性,以符合資安要求。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。