所謂的技術研究組合乃以試驗研究為目的,以「開發業界共同關鍵技術」為主要目的之非營利性質法人,日本至今共成立了兩百多個研究組合,主要透過專法創設之特殊性質法人制度,並賦予技術研究組合諸多稅賦優惠。在組織上,賦予技術研究組合亦有組織變更、分割及合併之可能,技術研究組合得以分割或轉換為公司,將研究成果直接轉化為產業化應用,技術組合之特色有以下幾點:
1.研究組合須至少二人以上之組合員發起:除企業公司外,日本國立大學法人與產業技術研究法人亦可為組合員 ,凡從事產業技術研發政府研究單位與國立大學,皆可將人力資源、研發成果投入與產業合作之技術研發活動,並從事進行試驗研究管理成果、設施使用與技術指導等事業活動
2.研究組合研發活動可運用「產業合作」、「產官學共同研發」兩種模式進行:未來技術研發組合進行組織變更成為股份有限公司時,大學或產業技術研究法人組合員亦可獲得公司股份,增加學研界加入技術研究組合誘因。3.研究組合組織型態彈性利於研發成果事業化應用:技術組合可視情況進行組織變更、合併與分割,就組織型態有更大變更與調整彈性。著眼於技術研究組合若產出相當之研發成果,則可以透過變更為公司型態,迅速將其研發成果予以產業化,亦可透過變更組織型態,而在籌措資金上有更為靈活運用方式使產業活動穩健持續地經營。
本文為「經濟部產業技術司科技專案成果」
歐洲開放科學雲(European Open Science Cloud, EOSC)旨在整合現有的數據基礎設施以及科研基礎設施,為歐洲研究人員與全球科研合作者提供共享的開放資料服務。為此,荷蘭與德國於12月率先成立GO FAIR國際支援與合作辦公室(The GO FAIR international support and coordination office, GFISCO)。荷蘭辦公室坐落於萊頓,並由荷蘭政府與萊頓大學醫學中心(Leiden University Medical Center)所共同出資設立。 該辦公室之成立源自於GO FAIR計畫,GO意即全球開放(The Global Open)、FAIR則分別係指可發現(Findable)、可連接(Accessible)、共同使用(Interoperable)和可重複使用(Re-usable),其目標在於跨越國界,開放目前科研領域現有的研究數據,係為邁向歐洲科學雲之里程碑。 荷蘭與德國曾於2017年5月時,發表聯合立場聲明書以展現推動歐洲開放科學雲以及全力支援GO FAIR計畫之企圖心,此次辦公室之設立為,包含以下主要任務: 支援由個人、機構、計畫組織等各方所組成的GO FAIR實踐網絡(GO FAIR Implementation Networks, INs)之營運工作。 進行GO FAIR實踐網絡之協調工作,以避免重複或壟斷之情形發生。 透過教育支援等方式倡議推行GO FAIR計畫。 GO FAIR國際支援與合作辦公室主要之角色為提供建言,而非幫助GO FAIR計畫做決策,若無達成預期效果或是缺乏明確的工作計畫時,該辦公室則可提供相關服務,以協助達成預期目標,並協助處理行政上之相關議題。
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。
精神衛生法強制住院侵害身心障礙者自由權-身心障礙者權利公約初次國家報告國際審查本文從我國身心障礙者權利公約(以下簡稱身權公約)初次國家報告國際審查結論性意見中,精神衛生法強制住院違反公約規定的評價出發,盤點身權公約對身心障礙者人身自由保護之規範內容,並將其與我國精神衛生法相關規定比較,認為現行規定及研擬中的修法方向皆確有違反身權公約之嫌。本文最後建議,在國際人權公約逐步完成內國法化程序的背景下,我國科學與科技相關法制例修法時,應注重相關人權公約的規範。
簡介美國FTC垃圾電郵法制施行成效報告