日本文部科學省於2002年提出產學合作契約範本,實行以來發現內容缺乏彈性,對於共同提交專利申請的共有專利權人能否進行商業化等研發成果歸屬問題規範不清。為此,2017年3月日本文部科學省科學技術及學術政策局參考英國智財局發布的Lambert toolkit等文件,提出11項合約範本,稱為【櫻花工具包】。
該工具的主要目標是期望產學合作從在意權利共有轉為重視研發成果商業化,提出包括大學或企業單獨擁有研發成果、雙方共有研發成果等多類型的合作契約模式,並解析如何從數種模式中選擇最適合的合約範本,盡可能在產學合作契約簽訂前,事先考量研究成果的商業化策略,從而提高研發成果商業化的可能性。當中建議,在進行模型選擇時需考慮以下因素:
此外,為了盡可能使研究成果的智財權更廣泛應用,在參考適用範本時,皆應考量研發成果商業化的靈活性,無論智財權歸屬於大學或企業方,都必須滿足以下的條件:
日本此一工具包之內容對於產學合作研究之推展,提供了更細緻化的指引,或許可為我國推行相關政策之參考,值得持續關注其內涵與成效。
美國聯邦地區法院於 12月初對伊利諾州禁止商家販售或出租色情及暴力電玩遊戲予未成年人,如有違反將會處以美金1000罰金之規定做出判決,宣告該等法律規定違憲,並對其執行發出禁止令。 法官指出該等規定將對電玩遊戲的創作以及發行造成寒蟬效應,沒有證據可以證明暴力電玩遊戲會對未成年遊戲者造成持續性的負面影響,使其思想和行為具有侵略性,且其對色情的定義並不是很明確。由於此等規定已對於電玩遊戲業者之言論自由造成限制,但是並沒有實質重大的理由得以支持該等限制,故宣告該等規定違憲,並對其執行發出禁止令。 伊利諾州一案並不是美國法院第一遭禁止相關電玩遊戲規定之執行的判決,於今年 11月時,美國法院即曾禁止密西根州執行禁止商家販售暴力電玩遊戲之規定。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
歐盟執委會發布「2016-2020年e政府行動計畫」並展開公眾諮詢歐盟執委會先前自2015年10月30日到2016年1月22日,針對其2016-2020年e政府行動計畫(eGovernment Action Plan)進行了公眾諮詢程序。執委會依據其公眾意見諮詢之初步分析,於2016年2月23日說明其2016-2020年的e政府行動計畫政策,將藉由公共行政管理措施(包含司法部分)的e化,實現歐盟數位單一市場的目標,提高跨境的互通性以及促進歐盟公民間的便捷交流。 歐盟執委會就該計畫目前有以下四項目標: (1) 透過資通訊之技術促進公共管理措施的現代化。 (2) 藉由數位化的公共服務提高跨境行動(cross-border mobility)的可能。 (3) 加強行政單位與歐盟公民及企業間的數位互動交流(digital interaction)。 (4) 推動數位化的關鍵措施。 相關監測及措施期程的指標,執委會將於未來幾個月內再為詳細之說明。而所有e政府行動計畫均應依循下列原則進行: (1) 數位化設定(digital-by-default):若其他可傳送服務之管道能選擇中斷服務或必須中斷服務時,行動措施應給予服務線上傳輸的特權。 (2) 跨境設定(cross-border by default):行動措施不應於歐盟內部市場製造新的跨境障礙。 (3) 一次性原則(once-only principle):行動措施應僅得於行政單位從未持有數據或資訊時,要求歐盟公民或企業提供該數據或資訊。 (4) 內含設定(inclusive by default):行動措施應促進所有歐盟公民或企業與公共行政單位的互動交流。 (5) 不保留原則(no legacy principle):超過15年的基礎設施或應用服務不再維護保留。 (6) 隱私及資料保護(privacy & data protection):所有數位化的公共服務皆應就個人資料之基本權利為完善的保護。 (7) 開放及透明化設定(open & transparency by default):行動措施應就重複使用及透明化為開放之設定。
美國白宮發佈「AI應用監管指南」十項原則美國白宮科技政策辦公室(Science and Technology Policy, OSTP)在2020年1月6日公布了「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」,提出人工智慧(AI)監管的十項原則,此份指南以聯邦機構備忘錄(Memorandum for the Heads of Executive Departments and Agencies)的形式呈現,要求政府機關未來在起草AI監管相關法案時,必須遵守這些原則。此舉是根據美國總統川普在去(2019)年所簽署的行政命令「美國AI倡議」(American AI Initiative)所啟動的AI國家戰略之一,旨在防止過度監管,以免扼殺AI創新發展,並且提倡「可信賴AI」。 這十項原則分別為:公眾對AI的信任;公眾參與;科學誠信與資訊品質;風險評估與管理;效益與成本分析;靈活性;公平與非歧視;揭露與透明;安全保障;跨部門協調。旨在實現三個目標: 一、增加公眾參與:政府機關在AI規範制定過程中,應提供公眾參與之機會。 二、限制監管範圍:任何AI監管法規實施前,應進行成本效益分析,且機關間應溝通合作,建立靈活的監管框架,避免重複規範導致限制監管範圍擴大。 三、推廣可信賴的AI:應考慮公平性、非歧視性、透明性、安全性之要求,促進可信賴的AI。 這份指南在發佈後有60天公開評論期,之後將正式公布實施。白宮表示,這是全球第一份AI監管指南,以確保自由、人權、民主等價值。