「TLO」係「技術移轉機關(Technology Licensing Organization)」之簡稱,專指大學研究成果申請專利後,將該等技術移轉給企業等之機關,如同產學間的仲介角色。
日本於平成10年(西元1998年)5月6日通過「促進大學等實施技術研發成果移轉給民間企業法(簡稱大學等技術移轉促進法或TLO法)」,目的在於將大學之研究成果技轉給民間企業,促進研究成果之實用化。
在承認TLO存在之同時,日本做了以下法令之配套:依據TLO法第8條,實施特定大學技術移轉之事業期間,第1年到第10年之授權金及專利申請審查手續費用減免1/2、產業競爭力強化法第19規定,若國家委託之研發成果,歸屬於受託者時,該研發成果之移轉授權不須經國家之承認、同時大學法人法第22條允許國立大學得為出資。同時TLO法亦承認若中小企業透過TLO取得研究成果之授權時,得降低中小企業投資育成株式会社支出資要件。
本文為「經濟部產業技術司科技專案成果」
隨著奈米產品的日漸普及與多樣化,歐盟考慮近期法制化奈米產品的標示要求,未來將於歐盟「化學物質登記評估授權及限制規則」(Registration, Evaluation, Authorisation and Restriction of Chemicals,簡稱REACH)中有關化學物質登記事項強制要求奈米消費產品的標示,以確保奈米物質的可追溯性(traceability)。 歐盟會員國部長級會議—歐盟理事會(The Council of the European Union,亦以拉丁文簡稱Consilium)作為歐盟層級主要的決策機關,為了政策協調的一致性與長期穩定性自2007年起採三國為一組的方式輪值擔任主席國(trio presidencies),每一國負責六個月的期間,主席國扮演推動立法與政策決定的推手角色並負責歐盟會員國共識的達成,2010年7至12月由比利時擔任歐盟理事會的主席。有關奈米物質產品管理政策,可由日前比利時氣候與能源部長並負責消費者與環境保護的Paul Magnette公開表示的談話中窺見未來歐盟法規調整的大方向:「奈米物質逐漸普及於消費產品與各種日常用品,但是我們對奈米物質的了解卻很匱乏。雖然對於在歐盟日益增加的奈米物質使用無須過渡緊張,但是我們仍有義務在最小限度內做到應有的檢視以確保環境與健康安全。因此,目前缺乏事前警告與標示其成分及潛在毒性的奈米技術發展是無法令人接受的」。 奈米產品製造商宣稱目前尚無任何證據顯示奈米產品對人體有危害,因此,歐盟官方在採取強制標示相關規定以前如擬暫停奈米產品的生產亦可能遭遇極大阻力,然而Magnette同時表示,如對奈米產品採取「沒有(安全)證據就沒有市場(no data, no marke)」的政策也可能太過限制,但是目前對於奈米產品只是宣稱其優點的產業現況,確實太過扭曲消費者應被充分告知資訊的權利。他強調,如生產方不盡力將奈米產品的潛在風險降到最低,奈米產品可能如同基改作物(GMO)一樣被民眾摒棄於歐盟市場之外。 在2011年底以前歐盟執委會(The European Commission)將完成第二輪的歐盟法規檢視,執委會企業與工業委員會主管化學政策官員Maila Puolamaa表示,奈米物質的管理將會納入REACH有關法制中,這部分將會成為現階段法規檢視的重點之一。年產量一公噸以下的奈米物質登記將會簡化,奈米產品上市也應自動標示其成分。Magnette表示比利時推動REACH法規檢視會以幾個方向為重點:第一,要求奈米產品強制標示以使消費者了解其所購買產品含有奈米物質;第二,確保生產鏈的可追溯性以能追溯奈米物質的源頭;第三,確立歐盟的適當的風險管理與評估法規;第四,鼓勵各國儘速自行負責建立自己的評估、管理與資訊監控作法以因應此波奈米快速發展時期的變化;第五,奈米產品標示的項目法制化等。
美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。
英國Royal Free國家健康服務基金信託與Google DeepMind間的資料分享協議違反英國資料保護法英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2017年7月公告Royal Free國家健康服務基金信託(Royal Free London NHS Foundation Trust)與Google人工智慧研究室DeepMind之間的資料分享協議,違反資料保護法(Data Protection Act)。 該協議之目的在使DeepMind利用Royal Free所提供的醫療資料,開發一款名為Streams的應用程式,透過人工智慧系統分析得知病患惡化之情況,並以手機警示方式通知臨床醫生。由於涉及病患的可識別個人資料且人數多達160萬人,協議的合法性,尤其在資料分享是否經病患同意方面,受到質疑。 Royal Free與DeepMind主張因應用程式是直接對病患進行醫療照護,具有病患默示同意(implied consent)之正當基礎,且資料經加密後才傳給DeepMind。惟經ICO調查結果如下: 就資料將被使用作為應用程式測試一事,病患未獲充分告知亦無合理期待; 雖執行隱私影響評估,惟僅於資料傳給DeepMind後才進行,無法發揮事前評估作用; 應用程式尚在測試階段,無法說明揭露160萬病患紀錄的必要性與手段合理性。 目前Royal Free已承諾改進以確保其行為合法性。ICO之認定突顯創新不應以「減損法律對基本隱私權保障」作為代價。
智慧聯網趨勢下的城鎮再進化-日本 ICT 社區總體營造