德國新營業秘密保護法(The new German Trade Secrets Act, TSA)其中一個亮點即為:除非有明確契約或其他法規要求,逆向工程是合法的,其規範於該法第3條第1款,德國以往舊法(不正競爭防止法)並未特別明文,我國營業秘密法亦同。現今企業應盡快透過調整契約內容、保密政策或保密技術來防止該類法所「允許」之情形發生[1],以避免供應鏈間之風險。德國法律專家提出有關「制定合作契約」建議供參: 禁止條款應有期間明文:契約起草禁止逆向工程條款時需注意其法律效力。法明文允許進行逆向工程,也代表著可促進企業市場參與並能從現有技術中受益做進一步發展。如契約一律禁止形同限制經濟自由,無論該條款訂於平行契約(如研發契約)或於垂直契約(如授權契約),往後遇有爭議恐被法院認為條款無效。故可折衷於「期間」加以限制,禁止逆向工程直到產品或服務上市為止,基本上企業只有在確信可以收回成本情況下才會投資於新技術開發。合理而言應在產品或服務公開上市後,才可以對產品或服務進行逆向工程。 注意誠實信用原則並延長條款效力:現行法就禁止逆向工程與否可由締約雙方協議。該禁止條款並不當然有違德國民法第307條第2項誠實信用原則而不利益於締約雙方之情況。但為避免仍有違誠實信用原則疑慮,契約可明確約定於產品或服務上市前不限制締約人使用相對人產品或服務並從中發現技術或資訊,也確保該期間內營業秘密所有權人之營業秘密專有權。合作契約亦可約定禁止條款於契約提早終止一定期間內仍有效。 [1]Dr. Henrik Holzapfel,New german law on the protection of trade secrets, https://www.mwe.com/insights/new-german-law-protection-trade-secrets/ (last visisted Sep.25,2019).
從促參法修正談我國通訊傳播網路產業輔導之法制化 法國通過具爭議性的iTune法法國眾議院與參議院於 2006 年 06 月 30 日 通過倍受爭議的 iTune 法,其主要理念在闡述著作權法的設計應該要防止將音樂著作消費者侷限在僅能利用特定設備聽取音樂的藩籬中,而目前 iTunes 提供的音樂格式僅可利用 iPod 設備播放,明顯違反此一理念。 眾議院原先通過之條文要求歌曲必須可以在任何設備上播放,但此一規範受到蘋果公司反對,認為如此規定將降低音樂檔案的安全性,而造成「鼓勵盜版」的結果。參議院為此修改規範內容,於規定中設計小部分空間賦予廠商可以運用 DRM 技術限制音樂於特定設備播放之音調;且若廠商獲得著作權人 ( 唱片公司及著作人 ) 之同意,仍得限制特定音樂格式僅得於特定設備中播放 ( 如: iTunes 的情況 ) 。 社會主義與綠黨之國會議員目前正針對此一規範提出違憲主張,若該主張無法成立,法國將成為歐洲訂定此一規範之先驅,預料其他歐洲國家將可能跟隨法國之腳步進行規範,如此情勢可以從挪威消費者保護官晚近作出之決議,認為 DRM 技術已破壞競爭法則,必須加以修正,以及其他國家包括丹麥、瑞典之類似決議窺知一二。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。