日本科技政策的制定依據來自日本「科學技術基本法」,該法第九條規定,要求國家在推動科技振興發展上,政府應制訂有關科學技術振興的「科學技術基本計畫」。「科學技術基本計畫」之推動以五年為一期,最近一期為第五期(2016-2020年),該期計畫以人工智慧與資通訊技術為核心,解決各式重要社會課題,打造「超智慧社會」,並命名為「Society 5.0」。
「Society 5.0」明訂日本實現超智慧社會的政策方向,其政策重點聚焦於產業創造與社會變革,並重新架構產業與整個社會的關係,因此,除了強化產業競爭力,實現產業變革以外,「Society 5.0」也規劃解決日本近年社會課題,包括老齡化社會、勞動力不足、能源短缺與自然災害等。而在前瞻性預測上,「Society 5.0」描繪20年後未來人類將生活在為高度電腦化、智慧化環境,為實現該目標,發展物聯網、大數據分析、電腦科學與技術、人工智慧與網路安全等相關科技基礎技術研發與應用,是「Society 5.0」的核心之一。
簡單來說,「Society 5.0」追求以人為中心的新經濟社會,運用高度融合網路虛擬空間及物理現實空間的相關技術,滿足未來人類生活上的各種需求,同步解決經濟發展與社會課題,並以此建構更貼近符合個人需求之社會。
本文為「經濟部產業技術司科技專案成果」
德國聯邦食品農也消保部(BMELV)發言人宣布,針對非基因改造食品標示制度之修正,今(2008)年初已達成政治協商,未來德國的非基因改造食品標示,將會容許那些在無可得替代產品的情形下而使用了基因改造維他命、添加物或加工輔助用料等基因改造產品之終端食品,標示為非基因改造食品。如此一來,那些使用目前只能以基因改造加工製成之維他命(如維他命B21、lyside等)所飼養之動物,日後動物來源食品以其作為原料時,這些食品將來也可以標示為非基因改造。此修法預計可在明年初完成實施。 德國此次修法目的,實係為了促進食品產業使用非基因改造標示。自從1990年建立非基因改造食品專有之標示制度起,動物來源食品如要作非基因改造標示,必須連在飼養時都使用非基因改造飼料,但食品產業卻表示此規定審為嚴苛且維持基因改造聲明所需的文件繁多,此機制實際上根本難以運用。BMELV為了促進食品產業使用非基因改造標示,遂決定修法放寬標準。 然而,這樣的修法仍然引起部分反對意見,例如德國食品產業聯盟(German food industry federation)即表示,非基因改造標示應當只能給予完全未使用基因改造之產品,其他產品則應使用諸如未含基因改造植物之類的聲明,否則就是誤導民眾之行為。此外,假如標有非基因改造標示的食品以此種方式使用過基因改造材料的話,更可能會折損非基因改造食品標示可性度。
「美國疾病控制和預防中心」公布對長照機構之居民施打疫苗之措施美國疾病控制和預防中心(Centers for Disease Control and Prevention, CDC)(下稱中心)於2021年3月5日公布長照機構(下稱機構)居民施打新型冠狀病毒(COVID-19)(下稱病毒)疫苗之重要措施。由於機構內人口密集、居民本身已患有疾病,其所面臨死亡的風險比一般人高,因此應重視此類族群的疫苗接種情形。 中心期望透過施打疫苗來降低機構居民可能死於病毒之風險。目前此疫苗已經過多次的臨床試驗,參與臨床試驗之族群也包含65歲以上之長者,多方面確保符合各族群的施打疫苗之安全性,而目前試驗過程中也並未出現嚴重的安全問題,即使出現副作用也多是較輕微症狀,例如施打部位之疼痛、發燒、發冷等症狀,中心認為施打的好處優於副作用,因此中心與美國疫苗接種諮詢委員會(Advisory Committee on Immunization Practices,ACIP)同意對機構居民進行疫苗施打。 由於機構之居住者多為無法獨立自理生活之失能者,需透過機構來提供失能者醫療服務,而居民大多本身就有一些疾病,受感染病毒而造成死亡的機率較大,雖然法律並沒有特別要求應徵得當事人同意才能施打疫苗,但中心認為徵得居民同意,或徵得代表居民做出醫療措施決定之人的同意施打疫苗會比較謹慎,並且在施打前必須說明與解釋疫苗施打的風險,以及依照作業程序將施打紀錄製作於文件中。 中心也正在與多家藥局合作,協助機構對於施打疫苗之居民與家屬進行風險告知與解釋說明施打疫苗之相關知識,除了取得居民之同意並採取紀錄程序外,每位接受施打疫苗之居民或居民之照顧者將會取得疫苗接種紀錄卡,因為某些疫苗需要注射兩次以上才能達到最佳保護,紀錄卡能顯示完整的疫苗施打過程。除此之外,措施規定居民在施打疫苗後必須遵守幾點注意事項: 施打疫苗後必須配戴口罩。 與他人保持至約183公分之距離。 避開人群和通風不良的地方。 勤洗手與消毒。 遵循中心發布之旅行指南。 遵循隔離指導。 有此可知中心期望能透過施打疫苗的方式來降低居民因病毒而受感染死亡之風險,也透過徵得居民書面同意文件的方式,以確保中心與居民之醫療程序保障。
保護、分級與言論(下) 美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。