以「公私夥伴關係(PPP)」發展科技之作法

  近來常聽聞各國以公私夥伴關係(Public-Private Partnership, PPP)之模式發展產業科技,PPP故名思義,係指結合公私部門之力量,以共同達成公共政策目標之合作模式。公部門可借重私部門的專業、經驗與品質,使其服務更有效率,私部門也可得到政府與政策之支持。

  如今科技進步程度往往可代表ㄧ國之競爭力,惟科技研發需投入大量成本,因此各國多有針對科研補助之相關政策,從早年的單方補助,到如今強調公私合作進行科研的PPP模式。各國亦提出各種產官學合作研發的模式或組合之立法或相關政策。例如成立獨立非營利法人讓各項研發活動進行更方便、研究設施設備共享更容易的日本「技術研究組合」、芬蘭之SHOKs。荷蘭近來亦大力推行PPP研發之策略。德國之高科技領先戰略計畫( Spitzencluster-Wettbewerb)亦以區域聚落(該區域聚落即包含產業界、大學及其他相關學術機構)為單位,藉競爭給予補助的方式,促成該地區產官之緊密合作。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 以「公私夥伴關係(PPP)」發展科技之作法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7650&no=55&tp=5 (最後瀏覽日:2026/02/20)
引註此篇文章
你可能還會想看
Flyknit專利訴訟戰持續擴大,Nike指控Puma侵害Flyknit系列產品之發明專利

  Nike成立於1971年,以運動用品起家,曾於2013年登上美國雜誌《Fast Company》「最具創新力的公司」排名位列第一。Nike在2012年推出Flyknit系列產品,主打一體成型的針織鞋面,Nike表示Flyknit技術是經過多年的研究、設計與開發,除以接面不明顯的方式來形成鞋面,其所使用的針織材料還可在鞋面的不同區域產生不同的紋理,並提供運動員所需要的輕盈、支撐、透氣、靈活等特性。此外,Nike也申請了有關Flyknit技術的發明專利以及利用Flyknit技術生產鞋面的設計專利。Flyknit不但在運動鞋業掀起新的流行趨勢,也開啟了新的訴訟戰場。   2012年,adidas晚Nike幾個月也發表了編織鞋款Primeknit,Nike旋即對adidas提起侵害發明專利訴訟,訴訟進展至2017年11月底,adidas向美國聯邦上訴法院提出上訴並主張Flyknit應屬於常規紡織工藝,不應給予Nike發明專利,目前尚待訴訟結果。   2015年,Nike又對Skechers的編織運動鞋款提起侵害設計專利訴訟, Skechers則以高端針織設計聞名的Missoni產品為證據,要求美國專利審理暨訴願委員會(Patent Trial and Appeal Board,簡稱PTAB)審查 Nike設計專利的有效性,最後PTAB認為有部分Nike的設計專利是無效的,至2017年,Skechers持續向PTAB挑戰Nike有關Flyknit鞋面之設計專利,目前PTAB仍在審理進行中。   Nike的Flyknit專利訴訟戰持續擴大規模,今(2018)年5月3日Nike指控Puma的產品IGNITE Proknit、IGNITE Speed Netfit、Mostro Bubble Knit、Jamming,在2008~2016年間侵害了Nike有關Flyknit技術之7件專利,並於美國麻塞諸塞州聯邦地方法院提起專利侵權訴訟,Puma則回應表示其未侵犯任何Nike的專利,計劃將繼續生產其產品。

以法制工具支援文化創意產業之發展與推動-文化創意產業發展法及相關配套子法

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

網路線上廣播電視正方興未艾

TOP