何謂日本「促進整合產官學共同研究的大學概況調查書」?

  「促進整合產官學共同研究的大學概況調查書(産学官共同研究におけるマッチング促進のための大学ファクトブック)」為日本經濟產業省與文部科學省所共同設置的「促進創新產官學對話會議」議定後向外提出,期待藉此使企業更容易理解大學的產官學合作現狀,進一步實現正式的產官學連攜活動。

  該概況調查書的先行版中收集整理了各大學整合產官學連攜的實績等資訊,2018年發布的正式版則統整日本327所大學的情報,擴充並更新了該概況調查書的內容,包含:1.產學連攜相關的聯絡窗口資訊等;2.產官學連攜活動的配套方針與往後期待重點化的事項;3.產學連攜之本部機能的相關情報;4.面向正式共同研究的配套措施,如平均交涉期間、跨領域型共同研究;5.各大學之專精領域及其實例;6.資金、資產及智慧財產相關連的持有使用狀況;7.大學發起的創投事業數及其支援體制;8.混合僱用制度的狀況。

本文為「經濟部產業技術司科技專案成果」

※ 何謂日本「促進整合產官學共同研究的大學概況調查書」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8090&no=67&tp=1 (最後瀏覽日:2026/02/28)
引註此篇文章
你可能還會想看
日本醫藥品醫療器材等法修正研析―以醫療應用軟體為中心

行動生活之隱私爭議-現行法制能否妥善處理位置資訊衍生問題

美國眾議院提出「深度偽造究責法案」

  隨著人工智慧(AI)視覺處理技術愈發進步,圖片及影像的篡改也更加普遍,甚至使人難以分辨其真偽,例如一款應用程式(App)-DeepNude便是運用此技術,將人穿著衣服的照片改作為裸體圖像;此種AI技術因對於社會及被偽造之當事人權益影響重大,進而引起美國立法者的極度重視。   日前維吉尼亞州為了遏止如DeepNude此類的應用程式,便於該州之《復仇式色情法》(Revenge porn law),擴大復仇式色情的涵蓋範圍,使其包括利用機器學習技術偽造他人照片或影像等深度偽造(Deepfake)行為。   但該深度偽造技術之應用,實際上並不僅侷限於情色領域,故美國紐約州眾議員伊薇特.克拉克(Yvette Clarke)於本年度(2019年)6月即提出了《深度偽造究責法案》(Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019., DEEP FAKES Accountability Act.)草案,本草案令人關注之處除配合現今科技發展特性為規定外,另針對實務上曾衍生的爭議問題,特別將外國勢力或其代理人(foreign power or an agent thereof)介入美國國內政治行為,如意圖影響美國國內公共政策辯論(domestic public policy debate)、選舉或其他不得合法從事的行為等納入規範。   依該草案之內容,其所規範者包含視聽紀錄、視覺紀錄及錄音紀錄;意即任何人使用任何技術或設備製作假冒他人名義(false personation)的紀錄,並於網路或其他知識傳播管道發布者,應有浮水印、口頭陳述或是於文本中有簡要說明等揭露,以使他人得清楚知悉該紀錄並非真實,如行為人有違反該揭露規定並利用深度偽造1.意圖羞辱或騷擾(包含性內容);2.意圖造成暴力、身體傷害、煽動暴亂、外交衝突或干預選舉;3.詐欺犯罪等,將可處5年以下有期徒刑,或科或併科罰金。另若行為人修改或刪除他人揭露之資訊而有上述意圖或犯罪行為者,亦可處以同等罰責。

美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

TOP