紐西蘭IT專家組織2012年5月發布雲端運算實務準則

  紐西蘭最為歷史悠久的IT專家組織(Institute of IT Professionals NZ)於2012年5月發布雲端運算實務準則(Cloud Computing Code of Practice),藉此彌補實務上缺乏雲端運算標準與實務指針的問題;本準則為自願性遵循規範,以紐西蘭為市場的外國雲端業者、及紐西蘭的業者皆可適用之,並可向公眾宣示其已遵行此準則,然倘若未遵行而為遵行之宣示,則屬誤導或詐欺行為而觸犯公平交易法(Fair Trading Act 1986)。本準則有四個主要目標:1. 促進紐西蘭雲端產業的服務標準;2. 確立應揭露(disclosure)的標準;3. 促進雲端服務提供者與用戶間就資料保護、隱私與主權等事項的揭示;4.強化紐西蘭雲端運算產業的整合性。

 

  依據此準則,雲端業者的資訊揭露範圍至少應包含業者基本資料、資訊所有權、管理及保護、與服務提供之適當管理措施等。在資訊所有權層面,業者應表明是否對所上載的資料或資訊主張所有權;而當用戶透過雲端服務利用或傳輸的資料而儲存於其他上游業者的網路或系統時,業者應確認其資料所有權之歸屬。

 

  在資料管理與保障層面,業者應表明遵從何種資訊安全標準或實務,其已向美國雲端產業聯盟(Cloud Security Alliance)進行STAR登記,或者已通過其他標準的驗證;此外應表明儲存資料伺服器之一處或多處所在地。再者,業者亦須表明服務關係繼續中或終止後,業者或客戶對於客戶所擁有資料之存取權限。

 

  在服務提供的適當管理措施上,包含業者的備份(Backup)程序及維護措施,皆應為揭露,使用戶得據以評估是否採取進一步的資料保護措施;此外包括服務的繼續性要求,如備援措施…等,亦應為揭露;又鑒於雲端服務有地理多樣性(Geographic Diversity)的特質,業者應使用戶知悉其提供服務、或營業活動的地點,以判斷此等服務可能適用的法權(Legal Jurisdiction)。

 

  依據此準則,雲端業者亦可例如透過服務水準協議(Service Level Agreement)對個別用戶承諾特別的服務支援方案,以提供更好的服務品質。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 紐西蘭IT專家組織2012年5月發布雲端運算實務準則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5797&no=0&tp=1 (最後瀏覽日:2026/03/06)
引註此篇文章
你可能還會想看
CAR-T細胞治療產品Yescarta美國專利侵權訴訟逆轉勝,CAFC認定專利不符書面說明要件而無效

  Gilead Sciences之子公司Kite Pharma(以下簡稱Kite)所推出之Yescarta®(Axicabtagene Ciloleucel)為治療復發型或難治型瀰漫性大B細胞淋巴瘤(Diffuse Large B-Cell Lymphoma, DLBCL)之CAR-T細胞治療產品,其為美國FDA第二個核准上市之CAR-T產品。   上述產品於2017年獲美國FDA核准上市後,Juno therapeutics公司隨即於美國加州中區聯邦地院起訴Kite,主張Yescarta侵害Juno therapeutics之美國7,446,190號專利「編碼嵌合T細胞受體之核酸(Nucleic acids encoding chimeric T cell receptors)」(以下簡稱190專利),2019年陪審團認定Kite成立專利侵權,裁定損害賠償額為7.78億美元;於2020年法院進一步認定Kite有蓄意侵權行為,再判定需增加50%之損害賠償金,使損害賠償總額超過11億美元。   本案上訴後,美國聯邦巡迴上訴法院(US Court of Appeals for the Federal Circuit, 以下簡稱 CAFC)於2021年8月26日推翻原審判決,認定190專利不符書面說明(Written Description)要件而無效。CAFC認為190專利請求項所請求之單鏈可變區片段抗體(single-chain variable fragment, scFv)結合部涵蓋過廣,包括可結合「任何」標的之「任何」scFv,惟其說明書未能提供其中之代表性物種(species)、或界定其共通結構特徵,於說明書中僅揭露可結合兩種不同標的之兩種scFv作為實施例,但未能說明此二物種如何、或是否能夠代表其所請求的整個上位之屬(genus)。CAFC指出,若要滿足書面說明要件之要求,說明書應揭露與代表性數量之標的結合之特定scFv物種,Juno雖提出專家證詞主張此二scFv實施例已具代表性,惟CAFC仍認為該證詞過於籠統而未能解釋何種scFv將與何種標的結合。CAFC指出,書面說明要件之目的在於確保專利排他權範圍不會超出發明人記載於說明書中之貢獻範圍,190專利發明人證稱其申請發明時只使用過說明書所載之兩個scFv實施例,且說明書未提供確認何種scFv將結合至何種標的之方法與指導,但190專利卻請求可與任何標的結合之scFv,因此,190專利之揭露內容未能證明發明人擁有結合至各種選定標的之所有可能scFvs,無法滿足書面說明要件之要求。   醫藥專利以上位請求項(genus claim)尋求保護時,可能因說明書記載內容不容易滿足書面說明與可據以實施(Enablement)要件而受到挑戰。除本案外,美國近期亦有數件醫藥專利因不符書面說明要件與可據以實施要件而被宣告無效,如Amgen Inc. v. Sanofi(Fed. Cir. 2021)、Idenix Pharmaceuticals LLC v. Gilead Sciences Inc.(Fed. Cir. 2019)、Enzo v. Roche(Fed. Cir. 2019),未來醫藥專利以上位請求項尋求保護是否會變得更加困難,值得繼續觀察。

拜登政府宣布採取促進負責任AI創新之新行動,以保護美國人民權利與安全

拜登政府於2023年5月4日宣布將採取促進負責任AI創新之新行動,表示公司於部署或公開其產品前,應致力於降低AI風險,並強調風險管理與保障措施的重要性,以防止AI對個人與社會造成潛在危害。此外,拜登總統於2月簽署「透過聯邦政府進一步推動種族平等和支持弱勢群體」行政命令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government),指示聯邦政府機關在設計和使用AI等新技術時,應避免偏見,並保護公眾免受演算法歧視。促進負責任AI創新之新行動包括: 一、投資負責任AI的研發 美國國家科學基金會(National Science Foundation)宣布撥款1.4億美元以啟動7個新的國家AI研究所,未來全美將有25個國家級AI研究所。除有助於促進公私部門之間合作外,將強化AI研發基礎設施、支持多元化AI勞動力發展,及推動氣候、農業、能源、公共衛生、教育與資安等關鍵領域之突破。 二、公開評估現有的生成式AI系統(generative AI systems) Anthropic、Google、Hugging Face、微軟、NVIDIA、OpenAI和Stability AI等領先AI開發商將參與AI系統獨立公開評估,以評估其模型是否符合AI權利法案藍圖(Blueprint for an AI Bill of Rights),及AI風險管理框架(AI Risk Management Framework)所提出之原則與實踐,並使企業及開發人員能就所發現問題,進一步採取解決措施。 三、提出政策引導聯邦政府減輕AI風險及提升AI利用機會 美國行政管理預算局(Office of Management and Budget)宣布,將於2023年夏季發布有關聯邦政府機關各部門使用AI系統之政策指引草案,並徵詢公眾意見。

M2M時代下的資料保護權利之進展-歐盟與日本觀察

日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準

日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下: 1.訂定涵蓋《廣島AI進程》之政策框架(Framework) 2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle) 3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct) 為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下: 1.進行AI安全性評鑑之相關調查 2.研擬AI相關標準 3.研擬安全性評鑑標準與實施方式 4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI) 另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。

TOP