新加坡政府於2013年3月完成10年期的IP Hub Master Plan,並點出三個戰略目標,以帶領新加坡成為亞洲的智財匯流中心。在其智財匯流中心(IP Hub)的政策規劃中,主要是希望成為全球:
1.智財交易及管理中心(A hub for IP transactions and management )
2.優質智財申請中心(A hub for quality IP filings)
3.智財爭端解決中心(A hub for IP dispute resolution)。
針對「智財交易及管理中心」目標實施策略,考量若能鼓勵企業揭露重要的智慧財產權資訊,將有助於使投資人更瞭解公司的競爭優勢及發展潛力。亦即企業的智慧財產權資訊適時揭露,將能爭取到更多外部資金投入,降低募資之成本。
據此,新加坡交易所(Singapore Exchange,SGX)於同年4月1日發佈智財揭露指引鼓勵上市企業揭露智財權利資訊。其中,除涉及可能損及公司商業活動之營業秘密,或涉及專利權之申請等事項外,公司對於智慧財產權之揭露訊息原則包括以下:
1.說明或解釋智財權對於公司經營業務之價值所在 。
2.為確保非專業的投資者都能夠理解揭露資訊,用語不受行話以及技術語言之限制。
3.解釋有關的智財權於根本上影響到公司的經營業務,以及獲利能力和公司及其子公司之前景與整體影響。
實際上,香港交易所亦曾於2012年2月發佈「上市文件智慧財產權揭露規範」,希望申請上市的企業能加強在上市文件中的智慧財產權揭露。該規範與新加坡證交所之智財揭露指引之內容,並無二致,皆希望透過智財權資訊之揭露,以增加投資人之投資意願;亦即,揭露程度越高,公司募資成本越低。
考量金融服務業面對科技之影響,金融領域必須轉型,以維持競爭力與時並進,新加坡金融監管局於2017年10月30日發布金融服務領域之產業轉型藍圖(Industry Transformation Map),旨於成為一個連結全球市場、支持亞洲發展,以及為新加坡經濟服務之全球金融中心。 該產業轉型藍圖包含了三部分,分別係:商業策略、創新與監理、以及就業與技能。 一、商業策略:成為領先國際財富管理樞紐。為推動亞洲發展,新加坡金管局預計與業界合作,將新加坡發展為私募市場融資平台。 二、創新和監管:發展重點為促進金融領域創新之普及,並鼓勵使用科學技術提升效率與創造機會,其具體方式包括: 透過API應用程式介面,鼓勵金融機構提升創造力和科技創新。 與金融機構合作打造常用的工具,如電子支付、電子身分識別(know-your-client)機制等。 促進和投資研發,開發新的解決方案,包括使用分帳式技術進行銀行間的支付與貿易融資。 擴展與其他Fintech中心之間的跨境合作協議,讓新加坡成為國外Fintech新創企業之育成基地。 使用科學技術,簡化金融機構監管。 三、就業和技能:新加坡金管局將擴大金融服務業的人才庫,加強新入和中期轉換跑道之人員在資訊科技上的專業技能。 該金融服務產業轉型藍圖之目標為,每年在金融領域達到4.3%實際增長值,並創造3,000個工作,其中金融科技領域部分達成1,000個工作機會。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
美國傳播通訊委員會將推動新的「網路開放」(Open internet)指導原則美國聯邦通訊委員會(FCC)主席Genachowski於2009年9月21日表示,FCC將提出新的網路開放指導原則,要求包括無線網路服務提供商在內的業者,維持網路中立,不得因傳送或下載資訊種類之差異而進行流量差別管理。此提案若經同意,預計將能有效避免如AT&T、Verizon與Comcast等大公司故意阻斷或是降低特定消耗大量頻寬網頁流量,或對不同用戶收取差異價格的情況。 現行的網路開放原則係於2005年提出,僅要求網路營運商不得阻斷(stop)使用者接取合法的網路內容、應用與服務,或抵制(prevent)不讓使用者以無害的設備,如智慧手機,連線接取相關服務。 FCC預計在現行的指導原則上加入兩條新的原則,以更確保網路的開放與中立性。此兩條新的原則包含對寬頻網路服務提供業者不得歧視的網路內容與應用規範之種類,以及對網路服務提供業者透明化其網路管理作法之要求等。 FCC主席表示,雖然這樣的提案肯定會遭受到電信業者的反對,但FCC仍應積極維護網路公開與自由。
美國國家安全局發布「軟體記憶體安全須知」美國國家安全局(National Security Agency, NSA)於2022年11月10日發布「軟體記憶體安全須知」(“Software Memory Safety” Cybersecurity Information Sheet),說明目前近70%之漏洞係因記憶體安全問題所致,為協助開發者預防記憶體安全問題與提升安全性,NSA提出具體建議如下: 1.使用可保障記憶體安全之程式語言(Memory safe languages):建議使用C#、Go、Java、Ruby、Rust與Swift等可自動管理記憶體之程式語言,以取代C與C++等無法保障記憶體安全之程式語言。 2.進行安全測試強化應用程式安全:建議使用靜態(Static Application Security Testing, SAST)與動態(Dynamic Application Security Testing, DAST)安全測試等多種工具,增加發現記憶體使用與記憶體流失等問題的機會。 3.強化弱點攻擊防護措施(Anti-exploitation features):重視編譯(Compilation)與執行(Execution)之環境,以及利用控制流程防護(Control Flow Guard, CFG)、位址空間組態隨機載入(Address space layout randomization, ASLR)與資料執行防護(Data Execution Prevention, DEP)等措施均有助於降低漏洞被利用的機率。 搭配多種積極措施增加安全性:縱使使用可保障記憶體安全之程式語言,亦無法完全避免風險,因此建議再搭配編譯器選項(Compiler option)、工具分析及作業系統配置等措施增加安全性。