本文為「經濟部產業技術司科技專案成果」
當工業的製造生產過程經過一連串自動化、產量化以及全球化之變革歷程之後,智慧工廠的發展已經成為未來各國的重點目標。生產力4.0的設計中,巨量資料(Big Data)是重要的一環,以製造業為例,傳統上將製造生產取得的數據僅用於追蹤目的使用,鮮少做為改善整體操作流程的基礎,但在生產力4.0推進之後,則轉變為如何藉由巨量資料來提升生的效率、利用多元資源的集中化與分類處理,並經過分析取得改善行動方式,使生產最佳化,再結合訂單需求預期分析,依市場變化調整製造產量,達成本控制效果。 在我國104年9月公布之「2015行政院產力4.0科技發展方案」,亦提及智慧機械、智慧聯網、巨量資料、雲端運作等技術開發,使製造業、商業服務業、農業產品服務等,提升其附加價值。除此之外,經濟部積極規劃佈建巨量資料自主技術研發能力並且促成投資,落實應用產業智慧化與巨量資料產業化之目標。然而,巨量資料的應用因涉及大量的資料蒐集與利用,因此,未來應著重於如何將資料去辨識化,顧及隱私與個人資料之保護。目前,針對此部分,法務部將研擬個人資料保護法修正案,制訂巨量資料配套法規。
歐盟普通法院駁回可口可樂曲線瓶商標註冊可口可樂公司於2011年向內部市場協調局(Office for Harmonisation in the Internal Market, OHIM)申請註冊流線型立體瓶身商標。經OHIM審議後,於2014年3月以本項商標缺乏顯著特徵不具商品區隔性為由,予以駁回申請。為此,可口可樂向歐盟普通法院(EU General Court)提出上訴。 惟法院於日前(2016年2月)做出說明,其判決結果認為立體瓶身並不具備與市場上其他可樂瓶區隔的具體特徵,根據共同體商標條例第7(1)(b)條「若商標缺乏顯著特徵則不允許註冊」。並質疑其所做的市場調查研究,無法證明該瓶身於市場上具有明顯的商品獨特性,不能讓消費者得以一眼看出是可口可樂產品,不符合同條例第7(3)條(足以使商品或服務之相關消費者認識為指示商品或服務來源,得與他人之商品或服務相區別者)排除7(1)(b)之適用條件,基於上述理由判決可口可樂公司敗訴。 透過此案件,一定程度呈現OHIM與歐盟法院在立體商標認定上相對審慎的態度。 在歐盟有關外觀設計與商標的聲請,係依照歐盟「共同體商標條例」(Council Regulation (EC) No. 207/2009)所規範。經申請通過之歐洲共體商標(CTM)註冊,得使產品或服務於全歐盟境內28個會員國享有排他性權利。而過往以販售之商品外觀或形狀申請註冊商標是具有難度的,必須係該外觀及形狀為增加其商品本身的價值或生產技術上所必要的結果,始得有商標註冊的可能。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
美國修正通過外國情報偵察法(FISA)美國近期通過「外國情報偵察法」(Foreign Intelligence Surveillance Act, FISA)之修正案,其中,原先於1月份到期的第七章(Title VII)702條款(Section 702),重新延長授權6年,直至2023年12月31日。 此法案於1978年生效,為美國第一個要求政府須先獲得法院許可,始能進行電子監視的法律。法案宗旨係為平衡國家安全以及人民權利,基於憲法第四修正案對人民的保障,使身處美國領土內的人民免於被恣意監視,國家在通常情況下,須獲得外國情報偵察法院(Foreign Intelligence Surveillance Court, FISC)搜索票(warrant)才可對人民進行搜查。 本次法案修正通過後,使聯邦調查局能夠持續使用情報數據資料庫,以獲取有關美國人的信息,但法案新增要求聯邦調查局在預測性刑事調查中(predicated criminal investigation)如要索取與國家安全無關的內容,必須事先經FISC法院審查許可(court order)。 因911恐攻事件後出現的反恐需要,2008年增訂第七章702條款為FISA的正式條款,原本在今年1月到期,法案修正通過後,此條款延長授權6年。目的為美國公民提供隱私保護,禁止政府針對美國公民和位於美國境內的外國人為監視對象;僅處於國外的外國人,涉及外國情報資訊才可被列為本條進行監視的目標。允許情報部門,在三個政府部門(外國情報偵察法院,行政部門和國會)的監督下,收集關於國際恐怖分子,武器散布者以及其他位於美國境外的重要外國情報。 此項修正案保留702條款的操作靈活性,並加入了一些增強隱私措施及要求。惟,受質疑且具爭議的是,702條款條文內容規範,允許美國政府的情報機構--國家安全局(National Security Agency, NSA)基於該條款,例外不需法院搜索票,可向Google、Apple、微軟、Facebook或電信業者等美國企業蒐集、調閱國外非美國人用戶的海外通訊內容(包含電子郵件、電話、其他私人信息等),當這些被監聽的國外用戶之通訊對象係涉及美國人時亦同;意即,若美國人曾接觸被鎖定的國外對象,也會被納入調查並取得通訊紀錄等個資,且禁止業者通知受影響的用戶。曾有國會參議員試圖修改此法案,加入隱私保護條款,但最終並未獲多數同意。
歐盟提出人工智慧法律框架草案歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。