為了瞭解德國消費者對於市面上眾多應用「奈米」科技之消費產品的想法,德國聯邦風險評估研究所(Bundesinstitut für Risikobewertung,BfR)於2007年抽樣調查一千位消費者,並於該年底公布調查結果。根據該問卷調查結果顯示,超過三分之二(66%)受訪者對於奈米科技發展持樂觀態度,並認為應該支持奈米科技的持續發展,並且認為奈米科技改善了生活品質以及其帶來的效益勝過風險。
但是,對於不同領域所應用之奈米科技,受訪者卻表現出不同的態度。因此該研究所所長Andreas Hensel認為,消費者不是依據事實為評價,而是依據「感性標準」。也就是說,他們所「感覺到」的風險在他們理解新科技時扮演重要角色。
相較於2004年所做的問卷調查,目前約有52%的受訪者聽過奈米概念,之前的調查結果只有15%。多數受訪者相信奈米可以幫助醫學領域的發展;其也相信應用奈米於顏料、漆料可提高耐刮與耐磨之能力。在紡織品領域也一樣,民眾相信防污的產品;受到民眾接受的還包括奈米科技在包裝材料以及防曬產品領域之應用。不過,對於其他化妝品卻只有53%的受訪者相信奈米的改善功能。絕大多數受訪者都拒絕將奈米科技應用於食品:69%受訪者拒絕添加「奈米」於調味料,即使奈米可以防止結塊;而就算因此可以延長食物保存期限,也有高達84%的受訪者拒絕在食物中添加奈米微粒。
多數的消費者獲取奈米科技資訊主要來自於大眾媒體,如電視、報紙、期刊與網際網路。但是他們是否相信該資訊,則取決於提供者為何,最受信賴之資訊來自於消費者組織,如消費者保護團體以及產品檢測基金會(Stiftung-Warentest)以及科學界(92%),最不受信賴的資訊則來自於經濟(32%)與政治(23%)。
智慧機械產業為目前我國五大創新產業政策之一,主要目的是將臺灣從精密機械升級為智慧機械,爰此,行政院於105年7月核定「智慧機械產業推動方案」,整合我國豐沛的新創能量,建立符合市場需求之技術應用與服務能量,以創造我國機械產業下一波成長新動能。 智慧機械之定義係指整合各種智慧技術元素,使其具備故障預測、精度補償、自動參數設定與自動排程等智慧化功能,並具備提供Total Solution及建立差異化競爭優勢之功能;智慧機械的範疇包含建立設備整機、零組件、機器人、智慧聯網、巨量資料、3D列印、網實融合CPS、感測器等產業。而智慧製造係指產業導入智慧機械,建構智慧生產線(具高效率、高品質、高彈性特徵),透過雲端及網路與消費者快速連結,提供大量客製化之產品,形成聯網製造服務體系。 未來我國智慧機械與智慧製造領域仍待研發突破之項目有:工業用等級之視覺/觸覺/力感知等感測模組與驅動控制技術;微型感測元件智慧化;開放性標準網路通訊技術;機器型通訊及安全技術;耐延遲及低耗能機器聯網;健全人機智能介面,提升人機協同安全與效率;智慧聯網共通服務平台、資料分析與效能管理;網實融合智能系統需結合專業分析模型提升準確性及可靠度;機器人智慧整合能力及反應速度;供需產能整合與決策系統等等。
法國法院判決:政府獨占賭博事業 違法賭博事業之經營是否應由政府獨占之議題,已陸續在歐洲國家產生爭議問題。2007年3月,義大利禁止於英國取得經營賭博事業執照之Stanley公司至義大利提供賭博服務,因此,義大利法院請求歐洲法院判決,以確定此一行為是否違反歐盟自由貿易原則。隨後,歐洲法院做出判決,認定義大利法律禁止未於義大利取得經營執照之公司在義大利境內經營賭博之規定,違反歐盟競爭法及歐盟條約第49條之規定。 2007年7月中旬,法國最高法院逆轉了過去禁止Malta’s Zeturf於法國經營經營賭博的見解,而遵循歐洲法院之判決結果,認為禁止賭博事業係違反了歐盟競爭法,以及歐盟條約第49條保障境內服務自由流通之規定,並基於上述理由判決Malta’s Zeturf取得於法國經營線上賭博遊戲之權利。法國法學專家Credric Manara以為,最高法院該判決將可能打開原來由政府獨占的賭博市場,而讓賽馬及其他運動賭博遊戲能擴及其他歐洲國家。 法國該向判決卻顯示了法國刑法禁止賭博的規定將無法限制歐盟條約中所保障的自由流通原則,然而,這樣的結果,卻也考驗了以刑法禁止賭博的國家對於法規衝突應如何解決以為之因應。
韓國修訂《不正當競爭預防和營業秘密保護法》加強對於營業秘密侵權之監管經查,韓國《不正當競爭預防和營業秘密保護法》(下稱UCPA)之修正案於2024年1月國會通過、2月公布,預計將於8月21日生效。旨在加強對於營業秘密侵權行為的法規監管與處罰力度,故本次修訂以營業秘密相關規定之修正為主,以其他修正(如商標、標誌、地理標示誤用、侵權或其他不公平競爭行為)為輔,本文摘要如下: 一、與營業秘密相關 (一)懲罰性賠償之加重:根據第14-2條第6項規定,針對「故意」營業秘密侵權行為,將懲罰性賠償從3倍上修到5倍。 (二)增加營業秘密侵權行為之監管與罰責:新增第9-8條規定,將「任何人在未經正當授權或超越授權範圍的情況下,不得損害、破壞或改變他人的營業秘密」納入規範,如有違反,將透過新增之第18條第3項規定課予最高10年監禁或最高5億韓元的罰款。 (三)加強對於企業(組織犯罪)之管制效力:基於修法前法人與自然人之罰款數額相同、企業的追訴時效短於自然人,造成難以抑止組織犯罪行為,故新增第19條規定,使企業罰款最高可處自然人罰款3倍,並新增第19-2條規定,將對企業的公訴時效延長至10年(與自然人之訴訟時效同)。 (四)新增沒收規定:依據修法前規定,即使透過UCPA提起訴訟,且侵權人承認侵權,但因為缺乏沒收規定(需要另外依據民事訴訟法才能對犯罪所得進行沒收),導致防止二次侵權損害之效果有限,故修法後透過第18-5條之規定納入可沒收特定營業秘密所得之規定。 二、其他修正 以下兩項修正之對象涉及第2條第1項第1款、第3條、第3-2條第1款(主要為商標、標誌、地理標示等誤用、侵權或其他不公平競爭行為),並不包括營業秘密(營業秘密第2條第1項第2款以下): (一)加強行政機關的職權:根據第8條規定,關於上述違規行為,相較修法前行政機關僅能提出「建議」(無強制力),修法後特別賦予智慧財產局(KIPO)可以「下令糾正」(시정을 명할 수 있다)之權利,即若未有正當理由依命令糾正者可依照第8條、第20條第1項第1、2款規定公布違反行為及糾正之建議或命令的內容,並對其進行罰款。 (二)法院查閱行政調查記錄的權力的擴張與限制:根據第14-7條規定賦予法院職權,即在法院在特定訴訟中認為必要時,可以要求相關行政單位向法院提出其依據第7條執行的調查紀錄(包括案件當事人的審問筆錄、速記紀錄及其他證據等),若相關紀錄涉及營業秘密,當事人或其代理人可向法院申請就查閱範圍、閱覽人數等進行限制。 綜上所述,可以發現此次修法除了加強法規的監管、處罰力度,顯示近年重視營業秘密爭議外,更特別修訂針對企業、法人等組織犯罪相關規定(如賠償金額的增加,甚至處罰力度大於自然人、訴訟時效的延長等),間接強調企業、法人等組織對於營業秘密侵權有內部管理與監督之責任,若參照資策會科法所創意智財中心於2023年發布之「營業秘密保護管理規範」對於企業內部管理與監督如何落實之研究,係透過將管理措施歸納成(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)十個單元的PDCA管理循環,旨在提供企業作為機制建立之參考或自我檢視機制完善性的依據,期冀促進企業落實營業秘密管理。 本文同步刊登於TIPS網(https://www.tips.org.tw)
澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)