紐西蘭最為歷史悠久的IT專家組織(Institute of IT Professionals NZ)於2012年5月發布雲端運算實務準則(Cloud Computing Code of Practice),藉此彌補實務上缺乏雲端運算標準與實務指針的問題;本準則為自願性遵循規範,以紐西蘭為市場的外國雲端業者、及紐西蘭的業者皆可適用之,並可向公眾宣示其已遵行此準則,然倘若未遵行而為遵行之宣示,則屬誤導或詐欺行為而觸犯公平交易法(Fair Trading Act 1986)。本準則有四個主要目標:1. 促進紐西蘭雲端產業的服務標準;2. 確立應揭露(disclosure)的標準;3. 促進雲端服務提供者與用戶間就資料保護、隱私與主權等事項的揭示;4.強化紐西蘭雲端運算產業的整合性。
依據此準則,雲端業者的資訊揭露範圍至少應包含業者基本資料、資訊所有權、管理及保護、與服務提供之適當管理措施等。在資訊所有權層面,業者應表明是否對所上載的資料或資訊主張所有權;而當用戶透過雲端服務利用或傳輸的資料而儲存於其他上游業者的網路或系統時,業者應確認其資料所有權之歸屬。
在資料管理與保障層面,業者應表明遵從何種資訊安全標準或實務,其已向美國雲端產業聯盟(Cloud Security Alliance)進行STAR登記,或者已通過其他標準的驗證;此外應表明儲存資料伺服器之一處或多處所在地。再者,業者亦須表明服務關係繼續中或終止後,業者或客戶對於客戶所擁有資料之存取權限。
在服務提供的適當管理措施上,包含業者的備份(Backup)程序及維護措施,皆應為揭露,使用戶得據以評估是否採取進一步的資料保護措施;此外包括服務的繼續性要求,如備援措施…等,亦應為揭露;又鑒於雲端服務有地理多樣性(Geographic Diversity)的特質,業者應使用戶知悉其提供服務、或營業活動的地點,以判斷此等服務可能適用的法權(Legal Jurisdiction)。
依據此準則,雲端業者亦可例如透過服務水準協議(Service Level Agreement)對個別用戶承諾特別的服務支援方案,以提供更好的服務品質。
本文為「經濟部產業技術司科技專案成果」
標準必要專利(standards-essential patents,SEPs)是國際標準組織所採行的一種專利運用模式,主要係為了使標準共通技術普及之同時平衡專利權人之利益,將技術發展中重要的標準共通技術結合專利保護,同時均要求專利權人須簽署FRAND(Fair,Reasonable and Non-discriminatory)條款,以公平、合理、無歧視之原則收取合理數額之專利授權費供標準化組織成員有償使用。然而,因專利本身即是一種合法壟斷,是以標準必要專利之授權模式可實現利益最大化;但涉及到具高度共通性又難以迴避的技術時,應當避免少數專利權人濫用專利權和市場壟斷。因此,專利權人和被授權人之間,對於收取合理專利授權費之議題,在一直無法取得共識之下,往往訴諸法律解決。從美國聯邦法院涉及標準必要專利侵權之訴訟案例,可看出美國針對標準必要專利目前主要有下列幾種趨勢:(1)合理之專利授權費以該技術佔產品元件之比率計算;(2)標準必要專利之授權費金額逐步降低;(3)專利權人必須先進行授權流程(4)不能直接申請禁制令。
歐盟行動電視管制架構及發展策略-以市場進入管制為中心 美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
美國國土安全部發布「2024人工智慧路線圖」,確保AI安全開發與部署美國國土安全部(Department of Homeland Security, DHS)於2024年3月17日發布「2024人工智慧路線圖」(2024 Artificial Intelligence Roadmap)(下稱AI路線圖),設立三大目標,將偕同旗下機關與產官學研各界合作,確保AI的安全開發與部署,保護國家關鍵基礎設施安全,以強化國家安全。 美國拜登總統於2023年10月30日簽署的第14110號總統行政命令《安全可靠且值得信賴的人工智慧開發暨使用》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)(下稱AI總統行命令),要求DHS應管理使用於關鍵基礎設施與資通安全的AI、制定全球AI標準並推廣、降低利用AI造成具有大規模殺傷力武器攻擊之風險、保護AI智慧財產權、以及吸引AI領域人才,以促使、加強AI開發與部署等事項。為踐行上述事項,DHS制定AI路線圖,其三大目標如下: (1) 負責任的使用AI以推進國安任務(Responsibly Leverage AI to Advance Homeland Security Mission):透過建置AI基礎建設、建立AI系統測試與評估(Testing and Evaluation, T&E)、推動AI人才培育計畫等行動措施,帶領主管機關負責任的使用AI,以保護國家安全及避免AI對關鍵基礎設施的風險,確保AI於使用過程中係尊重個人隱私、保護公民權利與自由。 (2) 促進AI安全與資安(Promote Nationwide AI Safety and Security):利用AI技術改善與預防關鍵基礎設施之安全與資安風險、制定關鍵基礎設施之AI使用指引、以及成立AI安全與資安委員會(AI Safety and Security Board, AISSB),彙集產官學研各界專家意見。 (3) 透過擴大AI國際合作來引領AI發展(Continue to Lead in AI Through Strong, Cohesive Partnerships):將透過與產官學研各界合作,擴大AI的國際合作,並持續與公眾進行意見交流與分享,推廣AI政策或相關行動措施;DHS亦將持續與參眾議院及其他主管機關匯報AI相關之工作進度與未來規劃,以提升部門AI的透明度,並建立公眾對AI的信任。