美國參議院通過對開放政府資料(Open Government Data)政策法制化具指標性意義之「數位責任與透明法」(Digital Accountability and Transparency Act,DATA Act)草案

  美國參議院於2013年4月10日一致通過「數位責任與透明法」(Digital Accountability and Transparency Act,DATA Act)草案,現在續行送往眾議院審查。DATA 法草案目的在於使政府支出資料更為透明公開,且以得再利用的方式提供。該草案若通過,將建立使用聯邦基金(Federal funds)做支出或受資助的政府機關單位或其他實體財務資料的標準;擴展USAspending.gov網站含括上述資料,並要求聯邦政府以電子格式,自動化、標準化的方式公佈財務管理及採購相關資料,使公私部門便於近用與進行分析。目前草案版本內文並無規定資料特定格式的資料標準,但可得確定的是必須為被廣泛接受、非專有、可搜尋,且獨立於平台使用之電腦可判讀格式,以及可得一致適用於各機關單位之聯邦得標廠商與接受政府補助之實體的特殊標誌。

  曾協助草擬2011年DATA法草案之「資料透明聯盟」(Data Transparency Coalition)執行長Hudson Hollister表示,DATA法草案把結構性的資料模式應用於聯邦政府支出時,將前所未有的激發責任與支出情況間的關係;同時,也將聯邦支出資料(federal spending information)轉化為開放政府支出資料(open spending data),成為強化民主治理與激發創新的重要公共資源。然而,由於DATA法草案所涉及的機關眾多,主要包括商務部(DOC)、財政部(DOT)、總務管理局(GSA),與預算管理辦公室(OMB),該法案通過後是否能落實,絕大部分還是取決於白宮是否會要求聯邦政府機關單位完整且迅速的遵循法律的構成要件。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國參議院通過對開放政府資料(Open Government Data)政策法制化具指標性意義之「數位責任與透明法」(Digital Accountability and Transparency Act,DATA Act)草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6547&no=0&tp=1 (最後瀏覽日:2026/03/08)
引註此篇文章
你可能還會想看
用數字解讀國內企業的智財管理能量

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

受美國聯邦最高法院Alice案影響,各級法院傾向宣告商業方法之電腦軟體專利無效

  依據美國專利法第101條規定,任何人發明或發現一新的、有用的程序、機器、製造物、組合物,或做出任何新的或有用的改良,並符合專利法所定之其他條件或要求,即可以取得專利權;然而,今年(2014年06月19日)美國聯邦最高法院於Alice Corp. v. CLS Bank International一案,認定原告透過第三方中介電腦系統 促進交易雙方交換資訊,以降低交易風險之技術,只是將抽象概念(第三方中介交易之商業方法)以一般方式於電腦軟體運行,故無法取得專利。   司法實務上,各級法院開始遵循此一判決先例,宣告與此性質類似之專利無效。例如:於Buysafe, Inc. v. Google, Case No. 2012-1575 (Fed. Cir. Sept. 3, 2014)一案,法院認定原告用來擔保線上交易安全之技術,只是將擔保契約關係此抽象概念運用於網路,故無法取得專利;於Loyalty Conversion Systems v. American Airlines, Inc., Case No. 2:13-CV-655 (E.D. Tex. Sept. 2, 2014)一案,法院認定原告以獎勵點數換取消費點數之技術,只是將貨幣交換此抽象概念透過電腦進行,故亦無法取得專利。   由各級審法院判決可以觀察到,以商業方法(抽象概念)為內容的電腦軟體專利有逐漸被宣告無效的趨勢,尤其是涉及到:縱使不以電腦軟體運行,但似乎亦可完成的交易方法。由此可見,各級法院對於專利法第101條已經開始採取較嚴格的審查標準。未來無論在專利申請或專利訴訟時,都宜一併考量Alice Corp. v. CLS Bank International案所帶來的影響。

德國與愛爾蘭對於個人資料處理是否須明示同意之見解不同

  德國與愛爾蘭資料保護局對於資料保護指令所規定個人資料(以下簡稱個資)的處理(process),是否須取得資料當事人明示同意,表示不同的見解。德國資料保護局認為臉書網站所提供之人臉辨識(預設加入)選擇退出(opt out consent)的設定,並不符合資料保護指令(Data Protection Directive)對於同意(consent)的規範,且有違資訊自主權(self-determination);然而,愛爾蘭資料保護局則認為選擇退出的機制並未牴觸資料保護指令。   德國資料保護局委員Johannes Caspar教授表示,預設同意蒐集、使用與揭露,再讓資料當事人可選擇取消預設的作法,其實已經違反資訊自主權(self-determination)。並主張當以當事人同意作為個人資料處理之法律依據時,必須取得資料當事人對其個資處理(processing)之明示同意(explicit consent)。對於部長理事會(Council of Ministers)認同倘資料當事人未表達歧見(unambiguous),則企業或組織即可處理其個人資料的見解,Caspar教授亦無法予以苟同。他認為部長理事會的建議,不但與目前正在修訂的歐盟資料保護規則草案不符,更是有違現行個資保護指令的規定。   有學者認為「同意」一詞雖然不是非常抽象的法律概念,但也不是絕對客觀的概念,尤其是將「同意」單獨分開來看的時候,結果可能不太一樣;對於「同意」的理解,可能受到其他因素,特別文化和社會整體,的影響,上述德國和愛爾蘭資料保護局之意見分歧即為最好案例。   對於同意(consent)的落實是否總是須由資料當事人之明示同意,為近來資料保護規則草案(The Proposed EU General Data Protection Regulation)增修時受熱烈討論的核心議題。資料保護規則草案即將成為歐盟會員國一致適用的規則,應減少分歧,然而對於企業來說,仍需要正視即將實施的規則有解釋不一致的情況,這也是目前討論資料保護規則草案時所面臨的難題之一。

TOP