以「公私夥伴關係(PPP)」發展科技之作法

  近來常聽聞各國以公私夥伴關係(Public-Private Partnership, PPP)之模式發展產業科技,PPP故名思義,係指結合公私部門之力量,以共同達成公共政策目標之合作模式。公部門可借重私部門的專業、經驗與品質,使其服務更有效率,私部門也可得到政府與政策之支持。

  如今科技進步程度往往可代表ㄧ國之競爭力,惟科技研發需投入大量成本,因此各國多有針對科研補助之相關政策,從早年的單方補助,到如今強調公私合作進行科研的PPP模式。各國亦提出各種產官學合作研發的模式或組合之立法或相關政策。例如成立獨立非營利法人讓各項研發活動進行更方便、研究設施設備共享更容易的日本「技術研究組合」、芬蘭之SHOKs。荷蘭近來亦大力推行PPP研發之策略。德國之高科技領先戰略計畫( Spitzencluster-Wettbewerb)亦以區域聚落(該區域聚落即包含產業界、大學及其他相關學術機構)為單位,藉競爭給予補助的方式,促成該地區產官之緊密合作。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 以「公私夥伴關係(PPP)」發展科技之作法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7650&no=55&tp=5 (最後瀏覽日:2026/02/01)
引註此篇文章
你可能還會想看
FDA發布「制定醫療器械在上市前核准(PMA)、低風險創新器材(De Novo)分類和人道用途器材免除(HDE)的利益-風險決策之不確定性考量指引草案

  美國食品和藥物管理局(FDA)於2018年9月6日發布關於「制定醫療器械在上市前核准(PMA)、低風險創新器材(De Novo)分類和人道用途器材免除(HDE)的利益-風險決策之不確定性考量指引草案。」   為滿足FDA促進公共健康的使命,醫療器械上市前核准(PMA)通常涉及較高的不確定性,因此本指引是適當的解決利益風險的判定以支持FDA的決策。包含考量患病群願意接受醫療器械帶來的益處及風險之更多不確定性,特別是沒有可接受的替代治療方案時。   根據指引草案,FDA依據具體情況,判定其利益-風險的適當程度之不確定性,包括: (1) 醫療器械可能帶來好處程度。 (2) 醫療器械存在的風險程度。 (3) 關於替代治療或診斷的利益-風險之不確定程度。 (4) 如果可能,需瞭解患者對醫療器械可能帶來的益處和風險之不確定性觀點。 (5) 公共衛生需求的程度。 (6) 依據臨床證據可支持上市前之可行性。 (7) 能夠減少或解決醫療器械的上市後利益-風險留下之不確定性。 (8) 上市後緩解措施的有效性。 (9) 建立決策類型。(如上市前核准(PMA)和人道用途器材免除(HDE)的核准標準不同。) (10) 對於早期患者訪問醫療器械的可能帶來的益處。   本指引草案中,FDA基於考量有關醫療器械臨床/非臨床訊息之利益風險,需與FDA的規範、監管機關和要求要有一致性。

中國大陸政府持續就行動遊戲等出版物之行政審查流程進行簡化和加速

中國大陸政府持續就行動遊戲等出版物 之行政審查流程進行簡化和加速 科技法律研究所 法律研究員 蘇彥彰 2014年12月02日 壹、部分出版審批程序調整為「後置審批」制   繼今年8月取消和下放45項行政審批項目,取消11項職業資格許可和認定事項,並將31項工商登記前置審批事項改為後置審批[1]之後,11月24日時國務院再次對外公布決定取消和下放58項行政審批項目,取消67項職業資格許可和認定事項,並將82項工商登記前置審批事項調整或明確為後置審批[2];其中出版物批發業務許可、出版物零售業務許可、設立印刷品印刷經營等活動企業之審批、印刷業兼營包裝裝潢等印刷經營活動審批、音像製作單位設立審批、電子出版物製作單位設立審批、音像複製單位設立審批、電子出版物複製單位設立審批、設立可錄光盤生產企業審批等九項與新聞出版相關之項目,由前置審批調整為後置審批。所謂後置審批係指,企業可以先辦理工商營業執照後,再由主管部門申請審批,雖仍需在主管部門審批完後才可以正式展開經營活動,但企業可以在這段時間內進行公司設立的相關準備工作,提高投資主體進入市場及開展商業活動的速度。 貳、提出行動遊戲雙軌制審批程序以及擴編審查人員,以加速審批、落實管制   除了前述針對新聞、出版、印刷等項目就行政程序進行簡化和加速工作外,中國大陸國家新聞出版廣電總局亦於11月21日公開宣示將「貫徹落實國務院全面督查整改落實」[3],其中包括對移動網絡遊戲(下稱行動遊戲)審批制度進行改革,以改善目前審批時間過長、效率不高的問題。   依據該公告之內容,未來審批制度將朝向雙軌制方向發展,其中對於未涉及民族、宗教、歷史、政治、疆域等議題,且無故事情節或故事情節單純(如棋盤類等休閒益智遊戲)之中國大陸本地自製行動遊戲,將採取簡易審批制度以提高審查效率,同時將審查專家員額倍增至20名,以維持並提高審查品質。在上述改革推動下,目標將縮短審查時間,由現行30天初審、15天複審期限,分別壓縮至15天及5天。其進一步具體做法,中國大陸國家新聞出版廣電總局現正研擬「關於規範移動網絡遊戲出版審批管理的通知」,預計於2014年12月下旬發布施行[4]。 參、小結   近年來中國大陸國務院積極推行行政審核程序的改革,並自2002年起陸續進行了12次行政審核批准事項的取消、調整或下放,而國家新聞出版廣電總局除了持續就各項新聞、出版、發行業務的行政審查管控流程,進行簡化和加速的革新工作外,面對近幾年行動遊戲的興起,除一再重申行動遊戲須符合網路遊戲審批相關規定外,也積極處理行政審批時間過長、效率低落問題,以便落實管制。   惟應注意的是,行動遊戲審批制度的革新,目前係以其國產遊戲為主。對此,是否會間接形成對外國業者競爭上的不對等,我方行動遊戲開發業者宜留意相關發展,納入後續遊戲開發方向與市場策略布局之評估要素一環。 [1] 《国务院关于取消和调整一批行政审批项目等事项的决定》(国发〔2014〕27号) [2] 《国务院关于取消和调整一批行政审批项目等事项的决定》(国发〔2014〕50号) [3] 〈国家新闻出版广电总局贯彻落实国务院 全面督查整改落实进展情况〉,中华人民共和国国家新闻出版广电总局,http://www.gapp.gov.cn/news/1663/232219.shtml(最後瀏覽日:2014/12/01) [4] 大公網,〈廣電總局擬縮減移動網遊審批程序 12月底前實施〉,2014/11/24,http://finance.takungpao.com.hk/tech/q/2014/1124/2837153.html(最後瀏覽日:2014/12/01)

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

日本發布以人為本AI社會原則

  日本內閣於2018年6月15日決議組成跨部會之統合創新戰略推進會議,並於2019年3月29日發布AI戰略,其中的倫理面向為以人為本之AI社會原則(下稱AI社會原則),希冀藉有效安全的活用AI,推動「AI-Ready 社會」,以實現兼顧經濟發展與解決社會課題的「Society5.0」為最終目標。   為構築妥善應用人工智慧的社會,AI社會原則主張應尊重之價值理念如下: (一) 尊重人類尊嚴的社會:AI應作為能激發人類發揮多樣能力和創造力的工具。 (二) 多元性和包容性的社會(Diversity & Inclusion):開發運用AI以共創多元幸福社會。 (三) 永續性的社會(Sustainability):透過AI強化科技,以創造能持續解決社會差距與環境問題的社會。   而AI社會原則核心內容為: (一) 以人為本:AI使用不得違反憲法或國際保障之基本人權。 (二) AI知識(literacy)教育:提供必要的教育機會。 (三) 保護隱私:個人資料的流通及應用應妥適處理。 (四) 安全確保:把握風險與利益間之平衡,從整體提高社會安全性。 (五) 公平競爭確保:防止AI資源過度集中。 (六) 公平性、說明責任及透明性任。 (七) 創新:人才與研究皆須國際多樣化,並且建構產官學研AI合作平台。

TOP