2014年2月12日,美國發表「網路安全框架(Cybersecurity Framework)」,該框架係由美國政府、企業及民間機構花費一年的時間共同發展而成,其蒐集了全球現有的標準、指引與最佳實務作法,最後由國家標準技術局(National Institute of Standard and Technology, NIST)彙整後所提出。
本框架主要可分成三大部份:
1.框架核心(Framework Core)
框架核心包括辨識(Identify)、保護( Protect)、偵測( Detect)、應變( Respond)、與復原( Recover)等五項功能。這五項功能組成網路安全管理的生命週期,藉由這五項功能的要求項目與參考資訊的搭配運用,可使組織順利進行網路安全管理。
2. 框架實作等級(Framework Implementation Tiers)
共分成局部(Partial)、風險知悉(Risk Informed)、可重複實施(Repeatable)、合適(Adaptive)四個等級。組織可以透過對風險管理流程、整合風險管理計畫以及外部參與等三個面向的觀察,瞭解組織目前的安全防護等級。
3. 框架側寫(Framework Profile)
框架側寫係組織依照本框架實際操作後所產出的結果,可以協助組織依據其企業需求、風險容忍度,決定資源配置的優先順序,進一步調整其網路安全活動。
此一安全框架旨在提供整體規劃藍圖予尚未建立網路安全架構的組織參考,而針對已有建立網路安全架構者,該框架並未意圖取代組織原先的風險管理程序和網路安全計畫,而係希望協助公、私部門改善資通訊科技和工業控制系統風險管理的能力。
印度民航局(Directorate General of Civil Aviation,以下簡稱DGCA)在禁止公眾使用無人機多年後,終於在2017年11月1日發布無人機使用規則(草案),並於網站上公開徵求意見。民航局部長P Ashok Gajapathi Raju表示,草案將於接下來的30日內,與所有利益相關者進行交流,一旦協商完成,將會確定無人機監管框架。預計今年12月底前完成訂定無人機使用管理規範,包含商業用途無人機。 根據規則草案,無人機依照最大起飛重量將其分為五類,分別為: 奈米(nano)無人機:重量小於250克; 微型(micro)無人機:重量在250克和2公斤之間; 迷你無人機(mini):重量介於2公斤至25公斤; 小型無人機:重量25公斤至150公斤; 大型無人機:重量150公斤以上。 除了飛行能力不超過50英尺高度的奈米無人機,所有無人機必須依照DGCA規定取得識別碼(Unique Identification Number)。針對2公斤以上的無人機需有無人機操作員許可證(Unmanned Aircraft Operator Permit),任何無人機的遙控飛行員必須年滿18歲,且需受過規定的培訓。 另,基於安全考量,草案規定禁止飛行無人機之區域,例如:機場範圍半徑5公里內、國際邊界50公里範圍內、戰略區域500公尺以內的國家重地、人口稠密地區、影響公共安全或正在進行緊急行動的地區、移動式平台(如:汽車、飛機或輪船)、及國家公園和野生動物保護區等生態敏感區域(eco-sensitive areas)等,違規者將依印度刑法之規定起訴。
大倫敦政府推動城市資料市集,期尋求資料利用及隱私保護間之平衡,建立民眾對資料市集之信賴資料利用之層面越來越廣,且無論是基於商業或公益目的,產生越來越多難題。穿戴式裝置及物聯網的發展,亦使得資料之蒐集利用及界線等問題更顯其重要性。有鑑於此,大倫敦政府(Greater London Authority, GLA)在今(2016)年3月公布「倫敦城市資料策略」(London City Data Strategy),積極推動「城市資料市集」(City Data Market),期將倫敦打造成世界首屈一指的智慧城市。 增加大眾對資料市集之信賴並減少疑慮乃「倫敦城市資料策略」之一環,近年在英國有一系列新法上路,除新的歐盟資料保護規範(GDPR)外,英國國內有關「開放銀行」(open banking)之新規範,以及已有能源及電信公司參與之MiData initiative等,上述機制均為促使個人更容易掌握其個資被利用之狀況。 大倫敦政府亦推動「倫敦資料交易」(London Data Exchange),大眾可利用此一機制掌握其個資流向。其中有關建置新的數位符號(digital tokens of proof),使民眾未來可利用此等符號證明符合特定資格,例如在道路受檢時,毋須拿出駕照說明個人姓名、地址、出生年月日等資料,利用該等符號,便可判定符合駕駛年齡。 近期,大倫敦政府透過資料科學合作夥伴(Data Science Partnership)推動資料科學倫理架構(Framework for Data Science Ethics),著手研究民眾對資料交易新機制的反應,試圖在資料利用與法律和道德問題間尋求平衡。
Google公司為強化專利組合,再下一步棋谷歌公司(下簡稱Google)已經證實收購來自IBM公司共217篇專利;其中188篇專利為IBM已取得之專利,29篇專利為IBM公司申請中的專利。但Google拒絕透露收購金額。 這些專利涵蓋了許多不同的技術,主要的專利是與資料處理有關,例如電子郵件處理、線上日曆,以及在不同裝置間轉換web apps等功能。其中一篇專利預期用以提升Google的社群網路(Google+)之搜尋功能。 其實從去年開始,Google已經收購了來自IBM公司總共約2000篇的專利,這些專利內容與手機軟體、電腦的硬體設備,以及處理器有關。此外,Google去年也以鉅額收購Motorola公司,背後一個很大的原因可能是跟Motorola所擁有的2萬多篇專利有關。 目前許多科技龍頭公司,已有例行性地藉由採取專利訴訟以取得市場地位的趨勢。例如Apple已指控包括HTC等智慧型手機供應商,因使用Google所擁有的Android手機操作系統,而涉嫌侵害Apple的諸篇專利;在與Apple的爭訟過程中,HTC獲得來自Google收購Motorola後所獲得之專利。 Google的執行長佩吉(Larry Page)在宣布收購Motorola時曾經表示,藉由收購Motorola可強化Google的專利組合(patent portfolio),協助Google公司對抗來自Apple或其他公司的競爭威脅。 Google公司透過持續不斷地強化專利組合,拓展專利領域,企圖在這些因專利涉訟的智慧型手機市場中,穩固其市場霸主地位。
歐盟「人工智慧法」達成政治協議,逐步建立AI準則歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).