近年日本中小企業與大型企業合作研發、進行交易合作的商業型態日益增加,故日本中小企業廳自2017年1月至2020年3月為止(約三年間),針對日本的中小企業進行了訪談,調查了中小企業與大型企業間約12,000筆合作研發等商業行為,從中發現了許多問題,如大型企業常藉由合作研發,參觀中小企業工廠的名義,實際上是竊取中小企業技術、know how;其他還有以共同研發為名,擅自將研發成果使用在其他領域的案例等。
由於中小企業常在商業合作上處與弱勢,故日本政府為促使中小企業與大型企業的合作能符合公平交易原則、以及保護中小企業的智慧財產、技術,防止中小企業的智慧財產、技術、Know how等無形資產被商業合作夥伴(大型企業)不當使用或以非法的方式取得、使用,故日本政府計劃於今年秋天發布「中小企業智慧財產、技術保護指針」。
為改善中小企業與大型企業合作時,可能遭遇的智財、技術歸屬等問題,除透過「中小企業智慧財產、技術保護指針」提供具體的對策與措施,日本中小企業廳將於2021年編列相關預算,以智慧財產權的角度協助中小企業解決智財相關問題,並強化中小企業保護智慧財產權之意識,另外還會提供中小企業智財諮詢等相關支援。
「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
三位來自Massachusetts州的州民,以Apple Inc.(下稱Apple)為被告,於該州地方法院提起團體訴訟。其等主張在2012年至2013年間,透過信用卡於Massachusetts州Apple的零售商店購買該公司相關商品時,Apple有過度蒐集與不當利用個人資料之情形。據Apple網站指出,消費者得選擇透過信用卡的方式購買商品,然若選擇信用卡方式付費,必須提供個人相關識別訊息,包含完整的郵政編碼,如果提供不完整,Apple將不會允許使用消費者使用信用卡方式付費;且Apple亦在網站上聲稱保有允許提供該類訊息予提供產品和服務的合作夥伴,或得利用該類訊息幫助行銷的權利。故原告等透過信用卡消費後,收到不必要的市場行銷資訊;又Apple將原告等人可識別的個人資訊銷售第三方公司,並在未顧及原告等權益下,挪用了該具有經濟價值的個人可識別資訊。基於上述理由,原告等請求至少500萬元美金之損害賠償,其中不包含訴訟費用以及相關利息等其他費用。 依據Mass. Gen. Laws ch. 93 §105 規定,不論是個人、商號、合夥、公司或一切營業人,當接受信用卡交易模式時,並不能要求消費者填寫任何個人可識別的資訊。若法院同意原告們的訴求,Apple將因「不公平且欺騙之貿易行為」而被認定違反該州法律而必須負擔賠償責任,且Apple也將被要求停止蒐集全州的個人可識別資料。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。
歐盟如何打擊「非現金支付」詐欺?有鑑於「非現金支付」(non-cash payment)──包含信用卡、電子錢包、行動支付和虛擬貨幣──之詐欺犯罪率有增加之趨勢,歐洲議會公民、司法與內政委員會 (Committee on Civil Liberties, Justice and Home Affairs)於2018年9月3日批准一修正草案,更新2001年通過之理事會框架決定(Council Framework Decision)2001/413/JHA,提高非現金支付詐欺之刑責,同時強化被害人保護。此一修正草案旨在消弭歐盟成員國間之法律落差,以強化對非現金支付詐欺之預防、偵查及懲罰。 此一草案最重要者為將虛擬貨幣交易納入犯罪之構成要件,並提高刑責。如法官認定犯罪情節該當國內非現金支付詐欺最重之罪,則最低應處以三至五年之有期徒刑。而其他新增及修正之內容包含: 改善歐盟區域內之合作,以利跨境詐欺之訴追。 強化對犯罪被害人之援助,如心理支持、財務及法律問題之諮詢,並對缺乏足夠資源者提供免費法律扶助。 透過宣導、教育與網路資源(如詐欺之實際案例)提供,提升民眾認知及預防之意識。 於委員會投票批准修正草案後,其後將待歐洲議會通過,並與歐盟理事會開啟非正式對談。