「促進整合產官學共同研究的大學概況調查書(産学官共同研究におけるマッチング促進のための大学ファクトブック)」為日本經濟產業省與文部科學省所共同設置的「促進創新產官學對話會議」議定後向外提出,期待藉此使企業更容易理解大學的產官學合作現狀,進一步實現正式的產官學連攜活動。
該概況調查書的先行版中收集整理了各大學整合產官學連攜的實績等資訊,2018年發布的正式版則統整日本327所大學的情報,擴充並更新了該概況調查書的內容,包含:1.產學連攜相關的聯絡窗口資訊等;2.產官學連攜活動的配套方針與往後期待重點化的事項;3.產學連攜之本部機能的相關情報;4.面向正式共同研究的配套措施,如平均交涉期間、跨領域型共同研究;5.各大學之專精領域及其實例;6.資金、資產及智慧財產相關連的持有使用狀況;7.大學發起的創投事業數及其支援體制;8.混合僱用制度的狀況。
本文為「經濟部產業技術司科技專案成果」
經濟部所擬定的「綠色能源產業發展計劃」可分為兩大領域,一是發展再生能源,如推動太陽光電、風力發電、生質柴油等,取代部分石化能源;另一則是透過節能措施減少使用化石能源的使用量,如生產LED照明、混合動力車輛等。 此發展計劃選定太陽光電、太陽能熱水系統、風力發電、生質柴油、氫能及燃料電池、LED照明、冷凍空調、混合動力車輛等八大產業為重點輔導對象,並擬利用貨物稅租稅工具、經費補貼政策及行政力主導等政策工具引導業界大力投資。透過給予進口混合動力車貨物稅減半、五千萬元以上公共工程須設置一定比例太陽光電設施等措施輔導業界投入。
瑞士ESG新法規正式生效全球多個國家目前正在促進企業推動「環境、社會和公司治理」(Environment, Social Responsibility, Corporate Governance, ESG)事務,以瑞士為例,有關ESG的新法規於2022年1月1日正式生效。 在2022年1月1日生效的提案中,主要是對《瑞士債法典》(The Swiss Code of Obligations, CO)提出修正,包含「涉及公共利益(public interest)的企業應提出ESG事項報告」與「企業應就有無使用童工及衝突地區的礦物金屬進行盡職調查(Due Diligence)」,分別說明如下: 一、公共利益企業應提出ESG事項報告 依《瑞士債法典》第32章新增的第6節「非財務事項之透明度」(Transparency on Non-Financial Matters)規定,符合條件的上市公司或受監管實體等公共利益企業,每年應提出一份單獨的非財務事項報告,內容須涵蓋環境事項、社會問題、員工相關問題、尊重人權和打擊腐敗等議題,以及公司對該等議題所提出的政策措施、風險評估和實施績效等資訊。此報告經企業內部最高管理層與治理機構批准後,須立即於網路上公開,並確保至少十年內可供公眾存取。 二、企業應就有無使用童工及衝突地區的礦物金屬進行盡職調查 依《瑞士債法典》第32章新增的第8節「與來自受衝突影響地區的礦物金屬以及童工相關的盡職調查和透明度」(Due Diligence and Transparency in relation to Minerals and Metals from Conflict-Affected Areas and Child Labour)規定,所在地、總部或主要營業地點位於瑞士的企業,如在瑞士自由流通或加工來自受衝突影響和高風險地區(conflict-affected and high-risk areas)的特定礦物或金屬,抑或產品或服務被合理懷疑是使用童工製造或提供而成,原則上即須遵守供應鏈中的盡職調查義務,每年亦應將其遵守情況編制成報告。此報告應在會計年度結束後的六個月內於網路上發布,並確保至少十年內可供公眾存取。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。
歐洲將限制對孩童販售暴力遊戲軟體歐洲各國司法部長於1月16日與歐盟司法與內政委員會委員Franco Frattini進行會商,包括德國、英國、希臘、芬蘭、西班牙以及法國之司法部長皆同意支持建立全歐一致之共同規範以限制對孩童販售暴力遊戲軟體,並將據此檢視各國電腦軟體相關法制。 Franco Frattini委員過去基於「兒童保護應不分國界」之理念,曾建議建構以歐盟為範圍的標識規範,並鼓勵以兒童為銷售對象之遊戲業者建立自律規約,惟歐盟最後決議應交由各國政府自行規範。而Franco Frattini委員此次提案受到本屆歐盟輪值主席國-德國-司法部長Brigitte Zypries的支持,並指示相關規範建構之第一步,即是出版遊戲軟體分級摘要供家長參考,此摘要將很快於歐盟網站上公布。Zypries認為關於暴力遊戲的限制,歐盟應與國際進行合作溝通,由其針對美國與日本;Frattini則期望在歐盟27個會員國建構專門針對此類遊戲的標識規範,至於其他種類之遊戲則仍由各國政府自行管理。 目前國際間針對暴力遊戲限制,多數國家仍採取提供遊戲分級或相關指導守則之方式,於歐洲,僅英國與德國特別訂定法律加以規範,尤其在英國,遊戲軟體內容若具有對人類或動物之寫實暴力場景,或包含人類的性愛行為者,必須送交英國電影分級委員會(British Board of Film Classification,簡稱BBFC)審查。而美國已有部分州議會通過限制對未成年人販售遊戲的法律,但幾乎皆被「違反美國憲法修正條文第1條-言論自由保障」之理由成功推翻。