「促進整合產官學共同研究的大學概況調查書(産学官共同研究におけるマッチング促進のための大学ファクトブック)」為日本經濟產業省與文部科學省所共同設置的「促進創新產官學對話會議」議定後向外提出,期待藉此使企業更容易理解大學的產官學合作現狀,進一步實現正式的產官學連攜活動。
該概況調查書的先行版中收集整理了各大學整合產官學連攜的實績等資訊,2018年發布的正式版則統整日本327所大學的情報,擴充並更新了該概況調查書的內容,包含:1.產學連攜相關的聯絡窗口資訊等;2.產官學連攜活動的配套方針與往後期待重點化的事項;3.產學連攜之本部機能的相關情報;4.面向正式共同研究的配套措施,如平均交涉期間、跨領域型共同研究;5.各大學之專精領域及其實例;6.資金、資產及智慧財產相關連的持有使用狀況;7.大學發起的創投事業數及其支援體制;8.混合僱用制度的狀況。
本文為「經濟部產業技術司科技專案成果」
美國聯邦通訊委員會FCC於2011年12月13日宣布新的補助計畫,提供低價的寬頻網路及電腦給計百萬戶之低收入戶,以消除數位落差。 美國聯準會(Federal Reserve)的研究報告指出,在同樣條件下,家裡擁有電腦與寬頻網路的學生比未擁有的學生,畢業率高出6%至8%。由此可見數位發展普及化的重要性。 與新加坡和南韓高達90%的寬頻普及率相比,美國現今仍有將近三分之一的人口,亦即約一億名美國民眾無法在家使用寬頻網路,因此FCC與相關業者成立一個名為「Connect to Compete」的非營利組織(private and nonprofit sector partnership),以提高寬頻網路的普及,並改善弱勢團體與一般民眾的落差。且此一計畫所需的經費非由政府支出、全民買單,而是全數由業者負擔。 此項計畫的補助標準為,任何符合公立學校午餐補助資格的家庭即可受補助,其每個月補助9.95美元以接取寬頻網路,並可購買最高150美元的電腦、並獲得免費的數位知識訓練。 此計畫規劃自2012年春季開始實施,部份城市率先執行,並預計於2012年9月前延伸至全國各個城市實施。
打開學校網路教學的潘朵拉盒子-談教師所開發數位教材的著作權歸屬 Adidas再次出擊!積極捍衛三斜線商標世界第二大運動用品製造商 Adidas 於2012年5月15日對滑板運動鞋製造商 Word Industries與體育用品零售商Big 5 提出商標侵權告訴,同時向U.S. District Court in Portland, Ore.請求金錢損害賠償與定暫時狀態處分。 Adidas 主張Word Industries設計於鞋身的三平行斜條紋與他們的三斜線商標太像了, 易使消費者產生混淆誤認,有欺騙消費者之嫌,並將淡化與損害Adidas的品質。 Word Industries 總裁則主張公司描繪的”W”是一個新的式樣且使用多年,有別於Adidas的三斜線。 Word Industries 於鞋身設計的”W”樣式,頂端帶著箭頭的形狀延伸至鞋緣,側身望去似乎只剩下三斜線,便因此落入與Adidas商標近似之爭議。 Adidas 積極捍衛商標,紛紛對於疑似模仿其三斜線標誌的業者採取法律途徑尋求救濟,像是控告Payless ShoeSource販售二至四條紋的運動鞋,侵犯其商標權,更因此判賠 6億5千萬美元,達成和解;甚至台灣本土品牌Jump運動鞋面設計的”遞減三斜線” 也在其中。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。