歐盟執行委員會宣布義大利於2015年9月30日成為「加強合作系統(enhanced corporation)」的第二十六個會員國,加強合作機制是里斯本條約下的法律工具,且加強合作機制允許九個或更多的歐盟會員國使用歐盟的程序及架構來制訂約束這些會員國的協議。經由加強合作機制規劃來發展新的單一專利制度,義大利成為會員國後即加入單一專利制度,就專利登記來說,因義大利是歐洲第四大市場,但義大利曾經是少數不涉及推動新單一專利框架的歐盟國家之一且曾隨西班牙挑戰單一專利法規的合法性,故這是相當重要的突破。
委員會發言人並表示隨著義大利申請加入加強合作系統,義大利已簽署單一專利法規。西班牙與克羅埃西亞是目前唯二未採用單一專利法規的歐盟國家。單一專利法規提供支持新單一專利制度的法律框架。法規讓參與單一專利國家的所屬企業能藉由向歐洲專利局單一專利申請取得專利保護,而不需要到各個國家單獨申請專利。然而,單一專利保護將只應用於這些已簽署及認可單一專利法院協議及採用單一專利法規的國家。到目前為止有八個國家已認可單一專利法院:奧地利、法國、比利時、瑞典、丹麥、馬爾他共和國、盧森堡及葡萄牙。
2025年9月15日,韓國智慧財產局(Korean Intellectual Property Office,下稱KIPO)與韓國外交部轄下之海外僑胞廳 (Overseas Koreans Agency,下稱OKA)共同宣布:即日起,「營業秘密原本證明(Trade Secret Original Certificate)」無須經過公證人的公證程序,即可直接申請海牙認證(Apostille)。此項政策旨在簡化韓國企業在海外保護其營業秘密的程序,減輕企業的時間與金錢成本。 在KIPO與OKA尚未推出該新政策前,依據韓國《不正競爭防止法》第 9-2條第3款規定,推定註冊此營業秘密原本證明者在註冊的時點,已擁有該電子文件所記載的資訊。然而,海牙認證僅頒發給「官方文件」,非官方機構所核發的營業秘密原本證明在國際上不會被視為官方文件,即營業秘密原本證明僅在韓國國內生效。當韓國企業積極擴展海外市場或在海外面臨營業秘密侵權糾紛時,企業如欲將營業秘密原本證明申請海牙認證以作為跨國訴訟之證據,需經過以下3步驟: (1)將其含有營業秘密內容的電子文件,向KIPO指定的原本證明機構申請註冊「營業秘密原本證明」。 目前KIPO指定4家非官方\機構,如韓國智慧財產權保護院(한국지식재산보호원)、LG CNS、RedWitt、Onnuri 國際營業秘密保護中心。以韓國智慧財產權保護院之流程為例,該機構自電子文件生成獨一無二的數位指紋(Hash,或稱雜湊值),與時間戳技術結合,製作營業秘密原本證明,以確保在特定時間點,該文件確實存在,且之後未被變更。即使對文件的微小修改都會影響數位指紋,使營業秘密原本證明失效。 (2)將其營業秘密原本證明交由公證人公證。 (3)取得公證人公證後,方得依據《關於官方文件簽發海牙認證及領事認證規定》(總統令)(공문서에 대한 아포스티유 및 본부영사확인서 발급에 관한 규정」(대통령령))向主管機關(即OKA)申請海牙認證。 9月新政策將「營業秘密原本證明」納入「可直接申請海牙認證的文件範圍」,即企業在取得由 KIPO 指定機構所核發的原本證明後,不須經公證流程,可直接申請海牙認證。此舉簡化行政程序,且經海牙認證為韓國真實文件之營業秘密原本證明,在海外爭議中可作為官方文件,提升公信力。 綜上可得知,韓國營業秘密原本證明的服務僅留存電子文件的最終版本所生成之數位指紋,而非註冊當時的電子文件本身。因此,本文建議企業仍應先打好文件管理機制的地基,簡要說明如下: 1.第一步,選定有價值、有高度洩密風險或即將對外共享的數位資料(如研發紀錄、客戶名單、演算法等),明確該資料相關之權責人員與作業規範。 2.第二步,建立可行之重要數位資料的生命週期(自原始資料之生成、保護到維護,再延伸至存證資訊之取得、維護與驗證)流程化管理機制,確認具備與管理流程相應的資源(如人員面之保密契約、教育訓練以及環境面之系統備份等)。 3.第三步,檢視現行規範與實際執行之情況與分析落差原因。 4.第四步,因應管理機制落實之程度、內外部變動之需求,進而調整合適的管理作法。 前述建議之管理作法已為資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》所涵蓋,企業如欲強化數位資料管理機制,可以參考此規範。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
澳大利亞政府擬修正《支付系統管理法》將數位支付,如Apple Pay、Google Pay納入法律規範中澳大利亞國庫部(Department of the Treasury)於2023年10月11日發布《支付系統管理法》(Payment Systems(Regulation)Act 1998)修正草案,擬擴張法案適用主體,將Apple Pay、Google Pay等數位支付或提供此項支付服務事業納入規範,其目的在於提升企業的開放性及責任,並關注大型科技企業在其中扮演的角色。 本次修正案中,將修改現行支付系統的定義及適用主體,擴大至提供支付服務平臺企業,將被視為金融機構受到拘束,並授權澳大利亞準備銀行(the Reserve Bank of Australia,下稱RBA)監管數位支付平臺。修正草案內容整理如下: 1.重新定義「支付系統」。現行法定義為「透過任何形式或方式促進貨幣流通的系統」,草案則納入非貨幣(non-monetary,如數位貨幣)及提供便利支付服務的支付平臺系統。 2.擴大「參與者」定義。現行法規中參與者僅包含管理、運作支付系統的企業,草案則擴張至與支付價值鏈(payments value chain)具直接或非直接相關連之所有企業。 3.現行規範中,僅RBA在可能涉及使用者財務安全及公共利益(下述)考量時,有指定支付系統的職權,並有權監管該支付系統,包含決定新參與者的加入、訂定制度內參與者應遵守的標準及指引、對相關爭議問題進行仲裁等。修法後國庫部部長(Minister)將擁有相同權力。規範所稱之「公共利益」,指有助提升財務安全、高效率並具有競爭性,且不會導致金融體系風險增加。 4.提高法案中刑事處罰的罰金金額。現行法規授權RBA訂定支付制度之相關標準及指引,若制度內參與者未依標準或指引行事,RBA會提出要求企業為特定行為或不行為之指示,仍未依循可能會科處澳幣5,500元的罰金(約臺幣11萬3千元),修法後將提高至2倍,惟罰金之處罰權最終仍須法院審判決定。 我國針對電子支付產業有電子支付機構管理條例、金融消費者保護法規範,並要求第三方支付服務業者落實洗錢防制法規定,避免淪為洗錢或地下匯兌工具,未來可持續觀察澳大利亞及其他國家對於支付平臺議題之討論及發展趨勢,作為我國評估相應治理措施及手段參考基礎。
日本國土交通省航空局公布日本無人機飛行安全指引日本國土交通省航空局於2017年9月12日公布修正版日本無人機飛行安全指引(「無人航空機(ドローン、ラジコン機等)の安全な飛行のためのガイドライン」を改定しました),乃依據修正之航空法規定(平成27年法律第67號)制訂無人機飛行之相關基本規則。 定義所謂無人機乃指非人搭乘,透過遠距遙控或自動駕駛而飛行之飛機、旋翼飛機、滑翔機及飛艇。而無人機禁止飛行在150公尺以上高空,不得在航空站周邊空域(包含進入),以禁止在人口集中地區之上空(150公尺以下)。 除經國土交通省同意之例外規則外,無人機之飛行必須在日出後日沒前,且需在直接肉眼目視範圍內之監視下,與第三人或他人建築物、車輛等物體應距離30公尺以上,並不得在祭拜或假日等人群聚集之場所上空飛行,也不得輸送爆裂物等危險物品,亦不得從無人機上投擲物品。另外應注意事項,例如飛行場所除了航空站周邊外,直升機等降落可能之場所、迫降場所、高速公路或高速鐵路等、鐵路周邊或車道周邊等、高壓電線、變電所、電波塔及無線電設施等附近應注意飛行安全。 於飛行之際,不得飲酒等造成不當操作,飛行前應注意天氣狀況、飛機無損害或故障、電池燃料充足等,並確保周邊無障礙物,並應迴避與飛機或無人飛機之衝突。平時應保持無人機之狀況良好,且維持日常操作良好技能,並鼓勵投保人身或財產保險。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。