美國國會於2018年8月13日通過之《出口管制改革法》(Export Control Reform Act of 2018, ECRA)第1758條,以國家安全為由,授權商務部建立對美國新興與基礎技術出口、再出口或移轉之認定與管制程序。有鑑於此,商務部下轄之工業安全局(Bureau of Industry and Security, BIS)於同年11月19日發布了法規制定預告(advance notice of proposed rulemaking),對外徵求關於認定「新興技術」之意見。
BIS指出,美國政府多年來依循《出口管制條例》(Export Administration Regulations, EAR)限制特定敏感技術或產品出口,以避免關鍵技術落入他國手中。惟既有之審查範圍已不足以涵蓋近年許多重大創新技術,故BIS先行臚列了14項擬在未來實施出口管制的新興科技,向公眾徵求其是否確屬「涉及國家安全之特定新興技術」相關意見。該14項科技包含:(1)生物技術;(2)人工智慧與機器學習技術;(3) 定位、導航和定時技術;(4)微處理器技術;(5)先進計算技術;(6)數據分析技術;(7)量子信息和傳感技術;(8)物流技術;(9)積層製造技術;(10)機器人;(11)腦機介面;(12)高超聲速;(13)先進材料;(14)先進監控技術。
除此之外,民眾亦得對如何認定「新興技術」提出一般性之意見,俾將來政策實施更加周全。意見徵求期間從2018年11月19日起,至2019年1月10日截止。
本文為「經濟部產業技術司科技專案成果」
所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。 而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。 德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。 故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。 修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。
理財顧問主張前公司競業禁止條款違法,聲請法院中止仲裁程序於2025年,Parallel Advisors的理財顧問Nicole Amore(下稱Nicole)向其前雇主Falcon Wealth(下稱Falcon)提起訴訟,請求法院停止Falcon提起的仲裁程序。 本案源自於2025年2月,Nicole自Falcon離職後隨即加入Parallel Advisors,而同年4月,Falcon向仲裁機構申請仲裁,主張Nicole違反合約中關於離職後禁止招攬公司現有或者潛在客戶的規定,指稱Nicole除了下載或截圖公司客戶資訊至其個人設備外,更在尚未離職時即與客戶聯繫,通知客戶其即將轉任新公司之事。 對此,Nicole則援引《加州商業與職業法》第16600條和第16600.5條規定,主張該等競業禁止及限制招攬的條款為違法。 此類因為顧問移轉任職所引發之客戶資訊移轉爭議,在顧問產業中時有所聞,惟目前法院尚未對本案作出裁定,後續發展值得持續關注。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
歐盟智慧財產服務台提供中小企業「掌握智慧財產權五步驟」的建議,以助其最大化IP價值歐盟智慧財產服務台(European IP Helpdesk)於2023年7月10日提供中小企業「掌握智慧財產權五步驟」的建議,以協助中小企業最大化IP價值。五步驟如下: (1)盤點企業擁有的IP數量及排定優先順位:企業應盤點其擁有的專利、商標、設計、著作權、營業秘密等的數量,並根據IP對企業成功的重要性進行排序。 (2)進行IP查核:企業應就其所擁有的智慧財產組合(IP Portfolio)進行詳盡的檢視,以評估其優、劣勢;企業應辨別出目前其智慧財產組合所可能遭受危險的地方,並評估其目前擁有的智慧財產組合,若其中有改以其他IP保護者,則風險可能為何。 (3)制定IP保護計畫:根據上述(2)的查核結果,企業應發展出一套IP保護政策,此並應包含「可監控及執行其IP,藉以排除他人侵權行為」的情形。同時,企業也應檢視自己的IP有無侵犯到他人的權益,例如透過「自由運營分析」(Freedom-to-Operate analysis)的方式,來進行專利侵權風險排查。 (4)將保護計畫付諸行動:企業應執行上述計畫,並確保其員工係對此等政策及措施有所認知。除此之外,亦應對員工施以教育訓練,以使其知道「IP保護的重要性」及「辨別潛在侵權行為的最佳方法」。 (5)保護計畫之檢視及更新:企業應時時檢視其IP保護計畫及進行更新,以確保其整體IP策略係與企業發展目標一致。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。