智慧機械產業為目前我國五大創新產業政策之一,主要目的是將臺灣從精密機械升級為智慧機械,爰此,行政院於105年7月核定「智慧機械產業推動方案」,整合我國豐沛的新創能量,建立符合市場需求之技術應用與服務能量,以創造我國機械產業下一波成長新動能。
智慧機械之定義係指整合各種智慧技術元素,使其具備故障預測、精度補償、自動參數設定與自動排程等智慧化功能,並具備提供Total Solution及建立差異化競爭優勢之功能;智慧機械的範疇包含建立設備整機、零組件、機器人、智慧聯網、巨量資料、3D列印、網實融合CPS、感測器等產業。而智慧製造係指產業導入智慧機械,建構智慧生產線(具高效率、高品質、高彈性特徵),透過雲端及網路與消費者快速連結,提供大量客製化之產品,形成聯網製造服務體系。
未來我國智慧機械與智慧製造領域仍待研發突破之項目有:工業用等級之視覺/觸覺/力感知等感測模組與驅動控制技術;微型感測元件智慧化;開放性標準網路通訊技術;機器型通訊及安全技術;耐延遲及低耗能機器聯網;健全人機智能介面,提升人機協同安全與效率;智慧聯網共通服務平台、資料分析與效能管理;網實融合智能系統需結合專業分析模型提升準確性及可靠度;機器人智慧整合能力及反應速度;供需產能整合與決策系統等等。
本文為「經濟部產業技術司科技專案成果」
針對法國知名品牌LVMH控告搜尋引擎大廠Google以其商標作為關鍵字,販售給網路廣告業者,使得當使用者鍵入商標關鍵字搜尋時,廣告業者之商業訊息及其網址會呈現在搜尋結果中,而侵害LVMH商標權的訴訟案中,歐洲法院佐審官(advocate General)Poiares Maduro提出了法律意見書。 在該意見書中,其認為Google允許廣告業者選擇和商標有關的關鍵字並不構成商標侵權,選擇關鍵字僅是Google和廣告業者二造間的內部活動,並沒有對公眾販賣和商標相同或類似的產品或服務,非商標法所謂之使用。另外,根據關鍵字搜尋結果而呈現廣告業者之網址,也不會造成消費者對原始產品或服務混淆的風險。網際網路的使用者知道在Google搜尋引擎做搜尋時,並非只有商標擁有者的網址會呈現,甚至有時他們並不是尋找商標擁有者的網址。消費者會依據廣告內容及造訪廣告網址來認定產品或服務的來源,不是僅依據隨商標關鍵字而呈現出的廣告就作出來源的認定。 該佐審官的法律意見雖然對歐盟法院沒有拘束力,但該法院在大部分的案件中仍會依循該意見,通常在該意見提出後大約六個月會作出裁判。
加州消費者隱私保護法修正法案重點說明隨著個人資料保護意識的興起,各國也持續增修法律來保護人民權益以及協調產業標準,但這變動的過程會對本來就複雜的法律結構帶來更多挑戰。 如美國同時會有聯邦法與州法兩個層次的法律,當兩者分別發展隱私權相關法律規範時,難免會缺乏協調,出現定義不明的重疊規範,進而提高企業之法令遵循成本與管理成本。最終導致的結果,就是非必要地降低了產業發展速度,以及提高了消費者獲得服務的成本。 日前美國加州政府修改了首部以消費者個人資料權利為規範之州級法律「加州消費者隱私保護法(California Consumer Privacy Act, CCPA)」,使該部法案對於個人資料保護與利用之規範日漸完備,並減少與聯邦政府重複管轄項目,進而達到合理降低州內企業的遵法成本。美國加州州長紐松(Gavin Newsom)簽署的CCPA修正案「AB-713號法案」(Assembly Bill No. 713, an act to amend Sections 1798.130 and 1798.145 of the Civil Code )通過後,CCPA之適用範圍將限縮。若「同時符合」下列二者條件,則可免受CCPA規範: 受「加州醫療資訊保密法」(the California’s Confidentiality of Medical Information Act, CMIA)所規範的的醫療資訊及個人健康資訊之衍生資訊,或受「美國聯邦受試者保護通則」(Federal Common Rule for human research subjects) 所規範的可識別之個人資訊。 根據「健康保險可攜性及責任法」(Health Insurance Portability and Accountability Act, HIPPA)之標準,已去識別化的資訊。 換言之,已經依HIPAA標準去識別化之第一點資訊,即可豁免CCPA針對個人資料保護之相關規定。此將減輕本身不受 HIPAA 規範,但因進行研究或業務目的需接收 HIPPA 去識別化資訊企業之合規負擔。 「AB-713號法案」對於已去識別化資訊之利用或販售行為,增設了契約須載明下列規範架構之條款內容: 如有利用或販售去識別化資訊涉及病患資料者,須在契約中予以聲明。 禁止買受人或被授權利用人以任何方式重新識別去識別化資訊。 除法律另有規定,或第三方受到相同或更嚴格限制之個資保護約束,買受人或被授權利用人不得將去識別化資訊再行揭露予第三方。 「AB-713號法案」亦要求進行CCPA所涵蓋販售或揭露去識別化病患資訊的企業,其隱私政策聲明應納入以下內容: 將出售或揭露去識別化病患之資訊; 採用HIPAA所允許如專家法(Expert determination)或安全港法(Safe harbor)等之何種方式,進行病患資訊之去識別化。 整體來說,「AB-713號法案」讓CCPA的規範稍加鬆綁,明確排除CCPA對特定去識別化資訊之適用,並擴張對研究行為之豁免範圍,在處理上有更多彈性,惟同時也要求企業須充分揭露其個人資料處理原則。
歐洲汽車供應商協會發表關於標準必要專利之政策指南,以期有關單位能給予汽車產業更明確的指示歐洲汽車供應商協會(European Association of Automotive Suppliers,俗以CLEPA簡稱之)於2023年3月7日發表〈關於標準必要專利之政策指南—一個可因應汽車產業數位轉型現象的歐盟專利規則〉(Standard Essential Patents Policy guidelines—For an EU patent regulation that adapts to the digital transformation in the mobility ecosystem),以期有關單位能給予汽車產業更明確的指示,舉凡:SEP專利權人可向何人為授權、「合於FRAND原則之授權條款」應如何被認定等。 CLEPA提及,由於在一技術領域中有SEP時,其他的技術無「迴避設計」(design-around)可能性,而必得實施該被選為標準之技術,故在該技術領域中,無其他技術可與「受該SEP保護」的技術相抗衡;是以該SEP的價值必須被審慎且精確評估。此外,CLEPA指出,由於汽車產業會投資、研發、銷售有助於未來「移動性」(mobility)發展的下世代產品,故此產業與智慧財產權議題有高關聯性(例如:此產業每年會申請超過39,000筆專利權),應予其在SEP議題上有足夠的明確性(certainty)及可預測性(predictability),使其在「投資於廣泛實施標準的『新技術』」上,更可依循。而創建一個「利益平衡」(balanced)的環境,將有助於授權雙方進行合於「誠信原則」(good-faith)的授權協議。 CLEPA為以上目的,提出五點建議: (1)應有一「歐盟層級」的立法 一個「歐盟層級」(EU-level)的法架構體系是較足以為SEP專利權人及專利實施者間,提供較「利益平衡」的環境,且較可抑制不公平的SEP授權行為。 (2)「供應鏈中任一層級,均可得授權原則」 凡任何欲得授權者,不論其位於供應鏈中何層級,均應予其有「在符合FRAND原則」下,被授權的機會。又,由於一技術之所以會成為「標準」,係因被「商討」(coordination)而出,倒不一定是因其在市場競爭上,真的有大勝於其他技術的優勢,故授權權利金應僅可反映該技術本身的價值,而不可將「因標準化而可帶來的其他廣大利益」摻入。 (3)對於SEP授權條款應有明確指示 政策制定者及各「標準制定組織」(Standard Setting Organization, SSO)應對「何謂合於FRAND原則之授權條款」提供指南;此外,也應提出就一SEP及其有被納入的「專利組合」(portfolios)的評價方法。 (4)供應鏈中的授權狀況應明瞭 專利實施者應清楚明瞭其是否應獲授權,或其上游元組件供應商是否已獲授權。 (5)應有完整的法體制 政策制定者應制定法體制或應提供關於法體制的指南,以避免SEP專利權人不當申請「禁制令」(injunction),以強使授權協議之可被達成。
美國「人工智慧應用管制指引」美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則: 一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。 二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。 三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。 四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。 五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。 六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。 七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。 八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。 九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。 十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。