國家技術標準之制定政策-由英國BSI觀國家技術標準制定政策

國家技術標準之制定政策
-由英國BSI觀國家技術標準制定政策

科技法律研究所
法律研究員 徐維佑
2014年12月03日

壹、前言

  所謂技術標準(standards),指透過法規、私人企業、或者產業慣例形成的統一技術或特定規格,包括重量、大小、品質、材料或技術特徵(technical specifications),以使商品、服務、製造或製造程序方法能有共通的設計或相容性[1];由特定標準制定組織要求市場上商品或服務應符合一定品質者,亦為技術標準,例如確保農產品符合人體食用的健康安全標準。

  制定技術標準不但具有降低生產成本、促進創新、加強消費者選擇性、增進公共健康及安全等優點,更是國際貿易的基礎。以技術日新月異的ICT資訊通信產業而言,標準更是搶佔市場的利器。

貳、英國國家標準制定政策

  成立於西元1901年之英國標準協會(British Standards Institution,以下簡稱BSI)為英國標準制定組織,亦是全球第一個國家標準機構,專門提供企業解決方案,將最佳實務模式(best practice)轉換成日常表現標準。BSI非政府機構,但透過與英國政府商業、創新與技術部門(Department for Business, Innovation and Skills, BIS)簽訂備忘錄,BSI成為英國國家標準制定組織,而其特色與任務大致如下:

一、以整體產業為考量之標準制定機構
  BSI標準制定業務範圍[2],除國家、區域、國際標準外,亦為私人企業、企業聯盟制定企業內部或企業聯盟間私人標準。標準制定之作法,係由產業界提名各領域之專業人員,及少數之政府部會官員成立標準制定委員會,各委員並非代表公司立場,而係以整體產業最有利立場參與會議;而BIS政府官員功能僅為傳達目前政府部會投入發展方向;標準制定委員會下,則設有技術委員會,委員各為特定技術領域之專家。BSI的原則為取得各界意見的平衡,在技術委員會成員組成上會避免單一勢力獨大,並盡力避免標準中包含特定權利人之智慧財產。

二、協助技術發展之階段式標準制定工作
  BSI對於英國國內之技術研究、發展活動,採階段式引導標準化制定工作:
1、基礎研究階段:即早整合各利害關係人共識,建立共同發展對話基礎;
2、驗證技術可行性階段:藉由建立專家小組,發展初期測試方法與安全管理之共同觀點;
3、技術整合階段:即早為市場作準備,統一規格與測試方法,以及日後之技術升級方法;
4、原型製作階段:建立產業間行為準則,同時廣納消費者觀點,提昇該技術於市場之接受度;
5、應用測試、系統驗證階段:連結該技術與市場上產品、或其他服務、亦或其他標準組織制定之標準。

  值得強調的是,BSI於研究發展活動各階段制定之標準提案草案皆會公佈於網站上,提供平台予大眾針對草案表示意見。

三、快速形成產業標準之PAS共通規範
  BSI設有「可公開獲得的規範(publicly available specification, PAS)[3]」,相較於一般國家標準、國際標準,開發PAS時程較短,其目的為在英國國家標準或國際標準形成前,作為提早提供市場參考、使用之共通規範,國際標準如ISO亦有此制度。當技術共通規範成為PAS後,每3年接受技術委員會確認是否延續,或轉將其提案為國際標準。

  私人企業可向BSI付費委託發展PAS共通規範。BSI會派專業人員指導企業如何撰寫PAS共通規範提案相關文件,集合內部專家團隊協助完成PAS共通規範提案。完成後對外召集內外部專家檢視PAS提案,包括標準制定委員會成員、政府官員、相關產業人員與消費者團體,並將檢視結果建議回饋給BSI內部專家團隊決定最終版本,公佈予給各界參考使用,公佈後之成果亦作為日後發展國家標準、國際標準之基礎。

參、結論

  英國國家標準制定組織BSI,不遺餘力的協助產業自願性形成共識作為國家標準主軸,由產業推舉之專業人員與政府各領域官員作為技術委員會成員,平衡各界意見以整體產業發展為考量。藉由研究發展各階段性標準化工作,公開標準草案廣納各界意見,並盡力避免標準包含特定人之智慧財產權。並且,BSI協助國內企業發展PAS共通規範,除加速國內產業共識的形成外,更建立發展國際標準之良好基礎,摃動英國產業發展,並保障社會、環境、消費者之權益,值得我國學習。

[1]Mark A. Lemley, Intellectual Property Rights and Standard-Setting Organizations, 90 Calif. L. Rev. 1889, 1910-1911 (2002), available at http://scholarship.law.berkeley.edu/cgi/viewcontent.cgi?article=1392&context=californialawreview (last visited Aug. 28, 2014)

[2]筆者親自訪談Daniel Mansfield政策主任,BSI Group總部,英國倫敦(2014/10/15)。

[3]ISO, ISO/PAS Publicly Available Specification (2014), http://www.iso.org/iso/home/standards_development/deliverables-all.htm?type=pas (last visited: 2014/10/01)

 

※ 國家技術標準之制定政策-由英國BSI觀國家技術標準制定政策, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6699&no=55&tp=1 (最後瀏覽日:2026/05/03)
引註此篇文章
你可能還會想看
加州法院判決刪除公司電腦之個人資訊非屬犯罪行為

  美國加州北區聯邦地方法院,於去年(2017年)12月5日做出關於雇員刪除其由公司提供電腦中與公務無關資料是否屬電腦犯罪之判決(United States v. Zeng, 4:16-cr-00172(District Court, N.D. California. 2017).)。   該案情為曾(Zeng)氏為避免其竊取自家公司商業機密行為被揭發,而逕自刪除其在公司提供筆記型電腦內之相關資料。而嗣後仍然被公司發現並報案,於此偵查單位FBI則以曾氏違反電腦詐欺及濫用法案(Computer Fraud and Abuse Act,下稱CFAA)中「未經授權而毀損他人電腦(18 U.S.C. § 1030(1984).).」以美國政府名義(下稱控方)起訴曾氏刪除其犯罪證據之行為。   對於該控訴,被告曾氏以被刪除之電子紀錄與其業務無關,非為公司所有財產為由作為抗辯。此外曾氏同時以其他判決主張毀損電腦之定義應係指由外部傳輸行為所致(如駭客行為),電腦使用者自己刪除行為應不包含之,以及控方未舉證其刪除行為將導致公司有不可回復或無法替代之損害作為抗辯。於此,控方則以刪除行為不應以內容而有所區分作為回應。   在審理期間,承審法官多納托(Donato)氏除參酌控辯雙方證詞外,並特別詢問控方律師指控內容是否會對一般大眾造成其在公用電腦中刪除同類資訊上之顧慮。而控方則以曾氏行為屬特殊情況作為答辯。最後,多納托氏則以控方主張將造成社會恐慌以及控方未提出被告刪除資料行為究竟對公司有何實際損害,判決被告無罪。

美國國防部「人工智慧國防運用倫理準則」

  美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。   美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。   倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。   美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。   除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。

G20財長會議就跨國企業利潤再分配及全球最低稅賦制批准最終協議

  2021年10月13日G20第4次財長會議正式批准了數位經濟課稅最終政策協議,確立了136個國家和司法管轄區,應於2023年底前實施跨國企業利潤再分配制及全球最低稅賦制的改革計畫。   有關跨國企業利潤再分配制,以跨國公司平均收入達200億歐元且高於10%利潤率的量化特徵,打破了過往國際稅法以業務型態為依據的課稅權分配基礎。根據協議公報,200億歐元的課稅門檻將在未來8年內下修至100億歐元,以逐步實現公平的數位經濟課稅環境;至於跨國企業母國所在地、子公司所在地之分配比例,將於2022年初公布。   新的全球最低稅賦制,係以全球(相對於境內)為課稅範圍設定15%的標準稅率,針對年收入達7.5億歐元之跨國公司,衡量所在地國之有效稅率與標準稅率,補足稅率之差額以打擊跨國租稅套利。根據協議公報,制度預設8%有形資產與10%工資的扣除額,將於10年內逐步調降,以符合數位經濟低邊際成本的特性;至於有效稅率的計算,預計將於2021年11月公布。   此次最終政策協議的批准,不僅是取得愛爾蘭等原先反對國家的共識,同時確立了新制度計算公式與配套措施的提出時程,顯示出疫情後數位經濟課稅的急迫性再度受到重視。而我國雖積極發展數位經濟,然因目前尚未透過多邊協定框架加入改革計畫,因此在此數位經濟課稅方案確定前,我國如何接軌和因應國際制度將是重要課題。

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

TOP