日本科技政策的制定依據來自日本「科學技術基本法」,該法第九條規定,要求國家在推動科技振興發展上,政府應制訂有關科學技術振興的「科學技術基本計畫」。「科學技術基本計畫」之推動以五年為一期,最近一期為第五期(2016-2020年),該期計畫以人工智慧與資通訊技術為核心,解決各式重要社會課題,打造「超智慧社會」,並命名為「Society 5.0」。
「Society 5.0」明訂日本實現超智慧社會的政策方向,其政策重點聚焦於產業創造與社會變革,並重新架構產業與整個社會的關係,因此,除了強化產業競爭力,實現產業變革以外,「Society 5.0」也規劃解決日本近年社會課題,包括老齡化社會、勞動力不足、能源短缺與自然災害等。而在前瞻性預測上,「Society 5.0」描繪20年後未來人類將生活在為高度電腦化、智慧化環境,為實現該目標,發展物聯網、大數據分析、電腦科學與技術、人工智慧與網路安全等相關科技基礎技術研發與應用,是「Society 5.0」的核心之一。
簡單來說,「Society 5.0」追求以人為中心的新經濟社會,運用高度融合網路虛擬空間及物理現實空間的相關技術,滿足未來人類生活上的各種需求,同步解決經濟發展與社會課題,並以此建構更貼近符合個人需求之社會。
本文為「經濟部產業技術司科技專案成果」
根據歐盟GMO食品上市規則,唯有通過歐盟EFSA的安全評估並經歐盟審查通過發給上市許可的GMO,始得於歐盟境內流通上市。 過去兩年,歐盟陸續發現其自中國進口的米類產品,被未經許可的基改稻米Bt 63污染,對歐盟的食品安全產生重大疑慮,因而引起歐盟官方及消費大眾的高度關注。為此,中國主管當局雖已請求歐盟提供有關此非法GMO之基因構成(genetic constructs)的詳細資訊,並針對歐盟會員國通報至Rapid Alert System for Food and Feed(RASFF)的案件,開始進行調查並暫時禁止相關業者出口米製品,不過中國迄今未能依歐盟要求,提供其在實施出口管理時的控制樣品,以及其所使用的檢測方法與歐盟所要求者,具有相同品質之證明。 因此,歐盟已在今(2008)年2月通過一項緊急措施的決定,要求自4月15日起,進口至歐盟的中國米類產品應檢附非基改證明(GMO-free certification),且此非基改證明應由歐盟官方所設立或認可之實驗室,使用特定的GMO檢測技術檢測後,檢測結果發現未含有GMO成分時,始能核發非基改證明。 雖然歐盟並非我國農產品的主要外銷國家,但歐盟此項緊急措施仍值得我國注意,蓋我國當前GMO的進出口管理法制與先進各國尚有所落差,而我國最主要的農產品出口國—日本,其GMO管理法律中亦有授權主管機關對進口產品實施生物檢查(即是否含有GMO的檢測)的規定,倘若我國在發展GMO時,未能妥善落實GMO的管理,不無可能對非基改產品造成重大衝擊,當前歐盟要求中國出口的米類產品應檢附非基改證明,即是一例。
美國專利商標局結束專利申請審查後試行程序美國專利商標局(United States Patent and Trademark Office, USPTO)於2017年1月12日宣布其不再依其審查後試行程序(Post-Prosecution Pilot Program, P3 Program)受理新的案件。該程序係用以使發明人在專利申請程序受到駁回以後得提出更多回饋意見,以期減少上訴至專利審判暨上訴委員會(Patent Trial and Appeal Board, PTAB)之數量。 該程序係在2016年7月11日公布施行,在該程序中,申請人在最終駁回做成後兩個月內得請求召開聽證;申請人得對審查員進行20分鐘內之口頭簡報。簡報進行完畢以後,申請人即被排除於會議之外,審查委員之裁決將會以書面之形式通知申請人。 在P3程序創設以前,專利申請被駁回的發明人得採取上訴前先期審查會議試行計畫(Pre-Appeal Brief Conference Pilot Program)或是最終審議後試行程序2.0(After Final Consideration Pilot 2.0, AFCP2.0)的方式提出明顯錯誤的爭執或是申請內容的修改,但這兩種申訴方式並無法讓申請人取得直接向專利審查員進行簡報的機會。 在2016年7月11日公布本項試行程序時,USPTO即宣布本項計畫試行時間直到2017年1月12日,或是USPTO受理1600位合格申請為止,在本計畫按照預定時程結束後,USPTO表示將會依公眾回饋意見以及試行程序的結果來決定未來是否會施行類似於本計畫之措施。
開放生物技術淺析 IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。