日本公布新創事業與廠商合作之指針草案,統整雙方不對等契約關係之問題並提出改善建議

  日本經濟產業省、公平交易委員會及特許廳於2020年12月23日發布「Startup與廠商合作之相關指針」(スタートアップとの事業連携に関する指針)草案,並自同日起至2021年1月25日止向外徵求公眾意見。近年,日本國內一方面看重新創事業與大型企業合作所帶來的優勢;另一方面,在此種合作關係下,雙方的契約關係亦浮現如名為共同研究、卻由大型企業方獨占專利權等問題。基此,配合2020年4月未來投資會議的決議要求,統整新創事業與大型企業間不對等契約關係的問題與提出改善建議,並參考同年11月公平交易委員會所發布的「Startup交易習慣之現況調查報告最終版」(スタートアップの取引慣行に関する実態調査について最終報告),擬定本指針草案。

  本指針主要著眼於新創事業與企業間的保密協議(Non-disclosure agreement, NDA)、概念驗證(Proof of Concept, PoC)契約、共同研究契約與授權(license)契約等四種契約類型。除了統整包含訂約階段在內的各種問題實例、以及日本獨占禁止法(私的独占の禁止及び公正取引の確保に関する法律)對此的適用現況外,亦提出了相應的改善與解決方案。舉例而言,指針草案指出,新創事業可能會被合作廠商要求對其公開營業秘密,卻未能簽訂保密協議。對此,合作廠商即可能構成獨占禁止法上濫用其優勢地位之行為。會造成此狀況發生的實務情境,可能為合作廠商承諾事後會簽署保密協議,但要求新創事業先行揭露其程式的原始碼等營業秘密等。而原因則主要包含新創事業缺乏足夠法律素養(literacy)、以及有關開放式創新的相關知識不足等。基此,指針提出改善方案,例如,締約前新創事業即先行區分出可直接向契約他方揭露的營業秘密、得透過締結NDA約定揭露之營業秘密、以及不得揭露之營業秘密等;締結NDA時,應盡可能具體約定營業秘密的使用目的、對象及範圍,並且考量到通常難以舉證廠商違反保密協議,因此不建議揭露攸關新創事業核心能力(core competence)的營業秘密。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ 日本公布新創事業與廠商合作之指針草案,統整雙方不對等契約關係之問題並提出改善建議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8616&no=64&tp=5 (最後瀏覽日:2026/03/26)
引註此篇文章
你可能還會想看
反恐任務 愛爾蘭擬成立DNA資料庫

  自美國911事件後,世界各國無不重新檢視自己國內現行實施的保安制度,愛爾蘭政府最近宣布將建立一個有限的DNA資料庫的計畫,以協助對抗重大犯罪事件。該資料庫的資料儲存範圍,將包括永久保留被判處超過五年徒刑的任何重大犯罪嫌犯的DNA檔案,以及任何疑似觸及重大犯罪的嫌犯檔案,後者的檔案僅暫時保存,一旦當事人沒有遭到起訴或稍後無罪獲釋,檔案即被移除或銷毀。   我國內政部原訂七月一日起換發身分證需強制捺指紋才可領證,其目的之一也是為了要遏止治安不斷惡化的情況,不過遭到人權團體抗議強制捺印指紋為侵犯隱私之行為。大法官會議解釋則認為,內政部以戶籍法第八條規定強制全民捺指紋領身分證,並以此建立指紋資料庫,以及以個人資料保護法作為指紋可用在個案犯罪偵防的根據,兩項做法均不適當,因此以釋字第603號解釋宣告換發身分證需強制捺指紋的作法違憲。   愛爾蘭政府若要建立一有限的DNA資料庫,其立法目的與執行、管理都須有周密設計,並符合保障人權的憲法原則,否則該DNA資料庫也將會存有侵犯人權的潛在風險。

日本提出「放送法施行規則」修正草案,強化智慧防救災訊息發佈設備整備措施

  日本總務省鑒於311地震時媒體播送的減災效果,在2014年2月14日對日本放送法施行規則的部分修正展開公眾諮詢。此次的修正係基於放送法母法第108條規定。依據該條的規範,基幹放送業者在進行國內的廣播時,若發生暴風、豪雨、洪水、地震、大型火災或有發生之虞時,為預防其發生或減輕其所造成之損害,應進行有效之廣播。   蓋日本在311災後,因其對對社會所產生巨大的衍生影響,後續規劃研擬了許多因應法制政策及措施。根據日本內閣府「2013年防災白皮書」,日本政府在311地震後所規劃政策方向及重要施政措施有:防災對策推進會議檢討會議的最終報告、災害對策法制的改正、與防災基本計畫的修正等各層面工作。   此外,依據日本防災對策推進會議檢討會議在2012年7月所完成之報告,其中對於災害立即回應體制的充實與強化,及建立綜合的防災資訊系統,建議應蒐集並提供必要之資訊,以盡早提供根本性的改善為目標。並且,為因應災害防救需要及強化即時應變能力,建立智慧防救災體系即屬刻不容緩,如何能運用各種多元性傳遞管道,落實將緊急性災害防救重要資訊傳送至每位國民,遂成關鍵議題。   而此次放送法施行規則的修正則擬增訂第86-2條,要求基幹放送業者應就基幹放送設備等向總務省所擬定的「基幹放送等整備計畫」;其中,關於母法108條廣播之確實實施而有特別必要者,並應取得總務省之確認。修正案擬增訂的101-2條除重複上述意旨,並要求總務省在確定確認上述計畫後,並應將公開其計畫的相關內容。 其中,對於地震防災對策特別措施法(地震防災対策特別措置法) 、水防法 與關於在土砂災害災害警戒區域內等的土砂災害防止推進的法律(土砂災害警戒区域等における土砂災害防止対策の推進に関する法律)等規範所訂定易受災區域內發信設備之設置,皆納入上述應被確認計畫的範圍。   日本屬地處地震頻繁國家,對於災害防救體系甚為重視,並投入大量資源加以發展。未來日本對於推動智慧防救災體系,是否會有更多進一步法制修改及調整,值得我們持續進行關注。

荷蘭資料保護局:Google隱私權政策違反該國資料保護法

  荷蘭資料保護局(Data Protection Authority, DPA)歷經長達七個月的調查,於2013年11月28日發布新聞稿,聲明Google違反該國資料保護法,因其未適當告知用戶他們蒐集了什麼資料、對資料做了些什麼事。   DPA主席Jacob Kohnstamm表示:「Google在未經你我同意的情形下,對我們的個人資料編織了一張無形的網,而這是違法的。」調查報告援引了Google執行長Eric Schmidt在2010年一場訪談中所說的話:「你不用鍵入任何字,我們知道你正在什麼地方、去過什麼地方,甚至或多或少知道你在想些什麼。」。   調查顯示Google為了展示個人化的廣告及提供個人化的服務,而將不同服務取得的個人資料加以合併,如搜尋記錄、所在位置及觀看過的影片等。然而,從用戶的觀點來看,這些服務係基於全然不同的目的,而Google亦未事先提供用戶同意或拒絕的選項。依照荷蘭資料保護法的規定,Google合併個人資料前,應經當事人明示同意,而該同意無法藉由概括(隱私)服務條款取得。針對DPA的聲明,Google回應他們已經提供用戶詳細資訊,完全符合荷蘭法律。   DPA表示將通知Google出席聽證會,就調查結果進行討論,並決定是否對Google採取強制措施。但是,從Google的回應看來,他們不太可能在聽證過後改變心意。以先前Google街景車透過Wi-fi無線網路蒐集資料的案例為鑑,Google(市值達3500億美元)若繼續拒絕遵循,將有可能面臨高達1佰萬歐元的罰鍰。

德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見

  德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。   歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。   在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。   在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。

TOP