歐盟於YouTube架設影音分享頻道EU Tube

  繼YouTube對美國總統大選的影響力逐漸受到各界矚目後,大西洋彼岸的歐盟執行委員會(European Commission),也漸體認到影音分享網站在商業應用外,對言論傳播乃至於政治活動之潛在影響。
 
 
  有鑑於此,歐盟執行委員會甫於上月二十九日,於YouTube網站上增置一個名為 “EU Tube” 的視聽頻道,以做為歐盟(European Union)官方和歐洲公民間的溝通渠道。
 
 
  關於此種利用線上影音分享網站作為政府資訊傳播和政策公開宣傳的創舉,有幾點值得國內注意。
 
 
  首先,此一歐盟執行委員會與YouTube簽訂的頻道協議,乃是非專屬的協定。換言之,歐盟執行委員會仍可同時與其他網站或媒體簽訂類似之服務協議。其次,EU Tube之內容亦不僅限於硬性的政策或行動討論,而包含了從氣候變遷、能源議題到移民等各種公民相關事項,甚至有內容大膽的 ”Film Lovers Will Love This!” 的前衛影片。更有甚之,使用者對於不同影音檔點擊觀看次數(有數百萬人次與僅一千人次的差異)的資訊,也可作為日後進一步分析利用的原始資料。不過,雖然歐盟極力推動其內部之語言多樣性,目前既有的影片仍以英文為主。
 
 
  歐盟發言人強調,納入YouTube等網站為對外溝通管道的作法,是為了盡可能擴大與歐盟公民的聯繫,但主要仍以易受YouTube吸引的年輕人為主。由此可見,網路網路對不同年齡層、世代的影響仍有差異,而公領域與影音分享網站日漸深化的關係,也考驗傳統媒體和政治互動的準則。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟於YouTube架設影音分享頻道EU Tube, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2312&no=0&tp=1 (最後瀏覽日:2025/11/06)
引註此篇文章
你可能還會想看
『採購單位執行下單評估與廠商智慧財產管理要件之關連性』研究調查

從美國「聯邦風險與授權管理計畫」看我國促進政府部門導入雲端運算之策略與機制

從美國「聯邦風險與授權管理計畫」看我國促進政府部門導入雲端運算之策略與機制 科技法律研究所 2013年07月03日   資訊科技的發展,從早期「超級電腦/大型電腦」、近期「個人電腦」,到即將邁入以超大規模數量電腦主機虛擬集結的「雲端運算」時代。雲端運算將電腦集中運用,未來電腦運算設施就像是水、電;資料儲存與應用就像是銀行,只要連上網路就可以使用,不必各自投資發展。因此,「雲端運算」未來將成為每個國家的重要基礎建設。   將雲端運算列為重要的產業發展重心,已是各國的趨勢,而運用雲端運算所帶來的效益,如節省經費、提升效率等,亦為普遍地承認,再加上公部門相較於民間,其擁有較多的經費及資源來進行雲端運算的導入,而藉由公部門導入雲端運算,可以帶動雲端運算產業的發展以及雲端運算應用的普及化。因此,各國均皆致力於促進公部門導入雲端運算。   然而,在雲端運算帶來龐大經濟效益的同時,伴隨而來的,是新的資訊管理議題,雲端安全防護聯盟(Cloud Security Alliance, CSA)提出了雲端運算可能遭遇的九大安全威脅 : 一、資料外洩(Data Breaches) 二、資料遺失(Data Loss) 三、帳號被駭(Account Hijacking) 四、不安全的APIs程式(Insecure APIs) 五、拒絕服務(Denial of Service) 六、惡意的內部人員(Malicious Insiders) 七、濫用雲端服務(Abuse of Cloud Services) 八、審慎評鑑不足(Insufficient Due Diligence) 九、共享環境議題(Shared Technology Issues)   面對前述的安全威脅,政府部門在考量導入雲端服務時,首先面對的就是要探討如何在導入雲端運算後仍能維持資訊安全的強度,以及政府部門要從何尋找符合其需求的業者。 壹、事件摘要   美國政府在2010年12月發表了25項聯邦IT轉型重點政策,其中一項核心的政策便是「雲優先政策」(cloud first policy)。根據「雲優先政策」,聯邦機構必須在三個月內找出三項轉移到雲端的政府服務,並且要在一年內導入其中一項。   然而,此種新型態的雲端運算服務為聯邦機構帶來資安管理的新挑戰,傳統由各機關分頭洽談所導入資訊系統與應用規格之方法,並實施個別的資訊安全需求與政策的作法,對服務商而言,其所提供的相同服務,在各機關導入時,卻必須將受各個機關的審查,造成各機關投入過多的資源在審查程序上,導致政府資源的浪費,不但耗費時間、審查重複,且無法達到建構妥善操作程序的效果。   2012年6月6日,聯邦政府總務管理局(General Service Administration, GSA)宣布「聯邦風險與授權管理計畫」(Federal Risk and Authorization Management Program,以下稱FedRAMP)開始正式運作,GSA並表示,「FedRAMP」的正式運作,將解決美國政府在雲端產品及服務需求上,因各自導入之標準不一致所導致的系統相容性問題、重複投資浪費,並可降低各政府機關自行進行風險評估及管理相關系統所耗費的人力、金錢成本。預估該計畫可為美國政府節省高達40%的預算及費用,預期效益相當可觀。   「FedRAMP」的目的是要為全國政府機關針對雲端產品與服務的風險評估、授權管理以及持續監控等標準作業規範,建立一套可遵循之依據。未來所有雲端產品的服務提供者,都必須遵守及達到該計畫的標準規範,才能為美國政府機關提供雲端產品及服務。 貳、重點說明   「聯邦風險與授權管理計畫」主要由預算與管理辦公室(Office of Management and Budget, OMB)負責組織預算與管理;聯邦資訊長(the Federal Chief Information Officer,CIO)負責跨部門的整合;國土安全部(Department of Homeland Security, DHS)負責網際網路的監控與分析;總務管理局(General Services Administration, GSA) 則建立FedRAMP之架構與程序,並成立計畫管理辦公室( Program Management Office, PMO)負責FedRAMP之操作與管理;以及國家科技研究所(National Institute of Science and Technology, NIST)負責提供技術分析與標準;最後由國防部(Department of Defense, DoD) 、國土安全部、總務管理局,組成共同授權委員會(Joint Authorization Board, JAB),負責對服務提供者的授權與定期檢視。   FedRAMP制度的精神在於「作一次並重複使用」(Do once ,Use Many Times),同一內容的雲端服務,透過FedRAMP,僅須經過一次的評估與授權,即得被多個機關所採用。早期各機關重複檢驗同一廠商的同一服務之安全性,造成資源浪費的問題,將可獲得解決。當其他機關欲採用雲端服務時,可透過FedRAMP,免去再一次的評估與驗證。   FedRAMP主要由第三方評估機構、對服務提供者的評估、以及持續監督與授權等三個部份所構成,簡單介紹如下: 一、第三方評估機構的認證   FedRAMP的特殊之處,在於雲端服務提供者應由通過FedRAMP認證的第三方評估機構(3PAO)來進行審查,而第三方評估機構欲通過認證,除了要符合FedRAMP的需求外,還必須具備雲端資訊系統的評估能力、備妥安全評估計畫、以及安全評估報告等,另外亦同時引進了ISO/IEC17020作為評估機構的資格。其認證程序如下: (一)申請檢視   機構首先必須符合ISO/IEC 17020 檢驗機構的品質與技術能力,並且自行檢視FedRAMP網站上的申請表,自行檢視是否合乎要求,然後決定是否提出申請。 (二)完成要求   機構須分別完成申請表所要求的系統安全計畫(system security plan, SSP)、系統評估計畫(system assessment plan, SAP)、安全評估報告(security assessment report, SAR)。於完成後向計畫管理辦公室提出申請。 (三)審查   在接受申請後,總務管理局會與ISO網路安全專家共同組成「專家審查委員會」(Expert Review Board , ERB),審查該申請。 (四)決議   審查完畢後,FedRAMP計畫管理辦公室(PMO)會檢視ERB的意見,決議是否通過該申請。   於通過申請後,該機構將會被列入FedRAMP官方網站(www.FedRAMP.gov)的第三方評估機構名單,目前為止,陸續已有十五個機構通過共同授權委員會的授權,日後得對雲端服務商進行評估。 二、對雲端服務提供者的評估   在「聯邦風險與授權管理計畫」的機制設計中,政府機關或雲端服務提供者任一方,皆可提出申請(Request)啟動雲端服務的安全性評估(Security Assessment)程序,此程序中共有四個主要階段: (一)提出申請   在申請人將所須文件初步填寫完畢之後,計畫管理辦公室(PMO)即會指派資訊系統安全官(Information Systems Security Officer, ISSO)進行指導,使之得進行安全控制、出具必要文件、並實施安全測試。之後,PMO會與雲端服務提供者簽署協議,並要求相關機關實施對雲端服務系統的安全性測試。 (二)檔案安全控管   雲端服務提供者必須作成系統安全計畫(System Security Plan, SSP),表明安全控制之實施方法,及其相關文件如IT系統永續計畫(IT Contingency Plan)、隱私衝擊調查(Privacy Impact Questionnaire),並送交ISSO進行審查,再由雲端服務提供者就對審查意見予以回覆之後,由ISSO將案件送至共同授權委員會(Joint Authorization Board, JAB)進行審查,以確認所提交的SSP安全措施符合雲端系統所需。 (三)進行安全測試   服務提供者與第三方評估機構(Third Party Assessment Organization, 3PAO)簽約,且由PMO約集雲端服務提供者與3PAO,確認雙方對於安全測試實施的期待與時程,再由3PAO獨立進行該雲端系統測試,並完成安全評估報告(Security Assessment Report, SAR),闡述評估結果並確認所暴露的風險。雲端服務提供者針對此評估結果,作成行動與查核點報告(Plan of Action & Milestones (POA&M)),以提出矯正弱點與殘餘風險(residual risks)的措施、資源與時程規劃。   雲端服務提供者再將前述SAR與POA&M提交予PMO,由JAB決定是否接受該弱點及其修正計畫,或者提出修正建議。倘若JAB可接受該弱點及其他因應措施,則由ISSO通知雲端服務提供者即將進入安全評估的最後階段。 (四)完成安全評估   雲端服務提供者將所有安全控制相關文件彙成單一的安全評估方案,並提出證明將確實執行其安全控制措施。由JAB檢視此方案,並作出最終決定是否授予「附條件之授權」(Provisional Authorization)。得到此授權的雲端服務提供者名單,將會被列在FedRAMP官方網站上。倘若雲端服務提供者未獲得此授權,PMO會指導如何進行重新申請。 三、持續的評估與授權   持續的評估與授權(ongoing Assessment and Authorization, A&A)通常也被稱為持續監控(Continuous Monitoring),在FedRAMP中第三個也是最後一個流程,透過持續的評估與授權機制,來確保雲端服務提供者持續的安全性授權。其中包含了三個主要層面: (一)操作的能見度   操作能見度的目標,是藉由自動化的方式來減少政府機構在監督作業上的行政耗費。亦即雲端服務提供者透過自動化的資料提供、定期提交具體控制的證據文件、以及年度自我認證報告等安全控制措施來說明操作的能見度,而不必政府機構另行要求。 (二)變更控制程序   雲端服務提供者更新她們的系統是常有的事,此處的變更控制程序並非針對例行性的維修或變更,而是要求若有發生影響臨時性授權或的顯著變更時,服務提供者必須提供此種具衝擊性變更的有效資訊,使FedRAMP得以評估此變更的影響與衝擊。 (三)事件回應   事件回應方面聚焦於新風險和漏洞的因應,服務提供者在發現影響授權的新風險或漏洞時,應向機構說明其針對保持系統安全的因應對策與作法。 參、事件評析   在各國紛紛投入雲端運算的推動熱潮中,我國也不能在此項產業推動中缺席。2010年4月,行政院科技顧問組(現已改組為行政院科技會報)責成經濟部,研擬「雲端運算產業發展方案」;2011年5月,行政院研究發展考核委員會亦公布了「第四階段電子化政府計畫」,在內部運作管理面向,將運用新興雲端運算技術推動以全國性的政府雲端應用服務,減少機關重複開發成本,並達成節能減碳效果。   雲端的安全問題,無論在私人企業或政府部門,均為選擇導入雲端服務的第一要務,「第四階段電子化政府計畫」中亦指出第四階段電子化政府將以雲端資安防護推動為重點,運用雲端運算技術,創新資安服務價值,確保政府資通安全防護。   然而,在服務提供者的安全性方面,我國並沒有像美國FedRAMP計畫般適度地提供服務提供者的安全性保證。對此,我國可借鏡各國的作法,適度的以透過公正第三方機構驗證,來消除雲端服務安全性的疑惑,並推動一個公開的平台,將通過驗證的廠商公布出來,提供公部門甚至私人企業作選擇,不僅可免去同一服務廠商不斷重複驗證的麻煩,亦可削減選擇上的難題,並藉此發展雲端資安技術與推動雲端產業,使我國的雲端環境能夠更臻成熟。

韓國人工智慧風險管理趨勢研析

韓國人工智慧風險管理趨勢研析 資訊工業策進會科技法律研究所 2020年6月25日   人工智慧技術正不斷地突飛猛進,後更因深度學習應用帶來令人難以置信的進步,迅速成為眾多產業轉型的重要推手。然而,當眾人專注於追求人工智慧的逐利時,也隱然意識到人工智慧與現實世界的互動,似已超越人類認知能力,或依當下技術知識經驗仍難加以掌握。以自駕車為例,其利用感測器感知外界進行影像辨識、理解預測進而做出決策的整體流程上,不論是在路人、車輛等圖像辨識、現場就路人及車輛行動之預測,乃至後端根據前階段路人、車輛行動預測與現在位置判斷最佳路徑的過程,處處是不可測的風險。申言之,從辨識正確率、現場狀況理解度至演算法決策來說,吾人所得掌控者有限。主因在於人工智慧的複雜與靈活性特色,實難通過統一概念加以界定。次者是人工智慧的自動化決策本身,事實上難以被確實地預見。甚至,就人工智慧可控性上,亦充斥各類不確定要素,特別是訓練資料偏差、又或設計者主觀意識之偏頗都可能造成預想之外的結果。   截至目前為止,人工智慧應用已然帶來已引發諸多風險議題,包含於開發、設計及製造端所論及之風險議題涵蓋歧視與偏見,如資料偏差、樣本資料結構性不平等[1]致使機器學習或有偏誤,進而影響判斷,產出具有歧視或偏見之結果[2];個人資料及隱私保護上,則係因人工智慧訓練對資料具有大量需求,涉及個人資料部分,將面臨蒐集(踐行告知程序)、處理和利用(於當事人同意之範圍內處理、利用)是否善盡保護義務與合乎法規要求;演算法黑箱帶來不透明的決策,難以預測與檢驗決策流程、判準是否有誤[3]。就此,考慮到人工智慧之重要性與風險,或有必要立基於風險預防理念進行相關風險控管,甚或以風險責任分擔角度,討論相關權責分配,以應對未來可能衍生的危害或重大風險。   人工智慧風險控管之法律基礎無法悖於倫理道德基礎。觀諸國際間討論,韓國早在2007年即已倡議機器人道德理念,並在2008年起接連有相關立法舉措。本文將以之為中心,探究其人工智慧在風險控管之相關立法政策措施,盼可從韓國做法中反思我國推行人工智慧風險管理之方向。 壹、事件摘要 一、韓國智慧機器人相關法制措施 (一)《智慧機器人發展和促進法》風險管控介紹   2008年9月韓國《智慧機器人發展和促進法》(지능형 로봇 개발 및 보급 촉진법)正式生效。該法旨在鋪設智慧機器人產業發展之法律基礎,包含在法律中嘗試引入智慧機器人定義(指通過識別外部環境並判斷狀況後自動運行之機器設備,包含機器設備運行所必要軟體),以此作為後續促進產業發展、規劃機器人責任歸屬或保險等討論之開展基礎;另外也以促進產業發展觀點,訂定產品安全開發與布建之支持法源依據;挹注國家科研能量確保技術穩定;建置智慧機器人產業分類系統,依此做為機器人產業統計基礎,為國家在機器人管理及政策提供相關數據。   其中,特別的是除了促進性規範外,亦首度於法律提出機器人倫理道德的概念,賦予主管機關訂定與「機器人倫理道德憲章」(로봇윤리헌장)相關內容之義務。   所謂「機器人倫理道德憲章」,係指針對智慧機器人功能及其智慧化發展,規範製造和使用人員之指導方針,以防杜危險發生並避免機器人不利於人類生活品質。換言之,機器人倫理道德憲章可認為是針對智慧機器人開發、製造、使用上的準則,盼可用以防止因智慧機器人功能而衍生之社會損害。就此,韓國工商部曾擬定《機器人倫理道德憲章草案》,可參考如下: 第一條(目標)機器人倫理道德憲章目標係為人類和機器人共存共榮,並確認以人類爲中心的倫理規範。 第二條(人與機器人的共同原則)人類和機器人應當維護相互之間生命的尊嚴、資訊和工程倫理。 第三條(人類倫理)人類在製造和使用機器人時,必須使用良好的方法判斷和決定。 第四條(機器人倫理)機器人是順從人類命令的朋友或是協助者、夥伴,不得傷害人類。 第五條(製造商倫理規範)機器人製造商有義務製造維護人類尊嚴之機器人,同時,必須承擔回收機器人、資訊保護義務。 第六條(使用者倫理)機器人使用者應當尊重機器人爲人類的朋友,禁止非法改造和濫用機器人。 第七條(實施的承諾)政府和地方政府應實施有效措施,以體現《憲章》的精神[4]。   觀察《智慧機器人發展和促進法》內涵,富有藉重法律效果與效能引領智慧機器人產業發展之精神,企圖形成政府政策借助立法促成經濟層面活動向上發展。然而,隨智慧機器人技術逐漸深入社會,韓國旋即意識到人工智慧在權益維護、風險管控上仍有進一步補強之必要,進而提出《機器人基本法草案》,並開展韓國在機器人倫理道德、歸責原則之相關討論,以順應社會整體的變革。 (二)《機器人基本法草案》   如前所述,意識到人工智慧發展已然滲入日常生活,有必要在機器人普及化的社會接受過程中,應對各類問題預先防範。韓國國會議員遂於2017年7月19日提出《機器人基本法草案》(로봇기본법)以反映機器人發展趨勢與問題。   《機器人基本法草案》主要目的是為機器人融入社會過程中的政策方向、原則進行引導,以有助於機器人產業健全發展。是以,該法在風險控管部分,通過二類做法予以調控,一是建立倫理道德準則之原則、二是嘗試提出歸責原則以釐清相關應用所生之爭議。   一者,藉道德倫理界線之提出使產業更為允當運用人工智慧。借用產品生命週期之概念,分就設計、製造以及使用者責任三階段規範。在設計階段,著重於產品內部構造、軟體介面設計的安全性,另就不侵犯人權及社會利益上,強調預先從設計確保產品永續性、倫理性及使用上的安全性;在製造階段,則從遵法性、說明義務及產品維護修繕責任等,揭示製造商在產品製造、銷售應行之事項;最後,則從使用者角度,以應用階段各項自律、他律規範,明示遵法義務與道德倫理原則,並特別指明宜避免過度成癮。   次者,在責任分配與歸屬上,於現行法令無以適用情況下,允許受損害者得向機器人之銷售者或提供者求償。然而,為免製造商或銷售者過度承擔賠償責任之風險,亦設置免責條款,規定當產品因缺陷致使損害發生,而該缺陷係以當時技術水準所無法發現之情況,或是該缺陷是製造商遵守當時機器人法令所規定標準所肇致,則將免除製造商之損害賠償責任。   綜合前述,《機器人基本法草案》在倫理道德及責任分配歸屬的風險管控上,提出諸多可資參考之方式,然而在基本法審議過程中,韓國政府認為雖有必要管制風險,卻不宜過早以立法手段介入遏止創新,而未能通過韓國國民議會。 (三)韓國人工智慧國家戰略   雖然《機器人基本法草案》未能立法通過,然而韓國相關立法脈絡已展現除關注於促進智慧機器人產業發展外,在倫理道德、責任上的風險調控亦不可偏廢態勢,且從智慧機器人進一步聚焦於人工智慧。   2019年12月第53屆總理會議(국무회의)[5],韓國擬定涵蓋科學資通訊技術部在內所有部會共同推動之「人工智慧國家戰略」(AI 국가전략)作為橫跨經濟和社會的創新專案[6],以攻守兼備方式發展人工智慧。分從技術、產業、社會三方面著手,為韓國發展人工智慧半導體產業取得先機,進而拔得在相關領域的頭籌;次者,完備先進資通訊技術基礎設施,借力人工智慧積極轉型為新世代數位政府;其三,從教育扎根,建設人工智慧教育體系以培植相關領域專業人才;第四,秉持「以人為本」精神發展人工智慧,建立人工智慧倫理原則、擴張就業安全網保障勞工,使人工智慧所產生之效益可散發至社會各個角落。預計通過該戰略,將可在2030年壯大韓國之數位競爭力,使人工智慧經濟產值增長至4550000億韓圜(約3800億美元),提升國民生活品質[7]。   整體而言,該戰略建立基於技術的立法、以人為本的道德以及改善整體社會法律體系三者為核心。基於技術的立法,如《信用資訊法》修訂,允許假名化資料利用,以鬆綁人工智慧資料應用需求,並平衡隱私保障;以人為本的道德,像是參考國際間道德倫理之標準,推行「人工智慧道德標準行動計畫」(AI 윤리기준 및 실천방안 마련),加速研擬建立在安全、責任或是擔保上的規範[8];改善整體社會法律體系,包含修正《國民就業援助法》擴大就業安全網,透過保險、教育、就業支援等方式協助受人工智慧衝擊影響之勞工、《就業政策基本法》中研擬為人工智慧業務建立相應人才教育。三者之推動,除帶動人工智慧產業蓬勃發展外,也兼顧社會層面道德、權益保障。 貳、重點說明 一、以剛性立法手段推進產業發展   觀察韓國,其人工智慧發展態度係以鼓勵為重。主因在於對企業來說,採用新興科技應用或可能囿於法遵成本、研發投資耗費過鉅、相關領域人才稀缺等多重因素而有所疑慮。有鑑於前開問題,韓國以正面態度,在風險控管措施上,嘗試藉由法規手段解消人工智慧發展所面臨之問題,即在賦予政府確實制訂與推進人工智慧發展政策責任,使業者可預期政府態度;次者,設置法律作為行政機關提供產品安全開發與布建支援依據,確保科研能量技術的穩定;再者,藉由智慧機器人分類系統建立產業管理與統計基礎,俾利後續依統計數據進行決策。   至於權益保障、風險如何評價及規範,雖有論者倡議另制定《機器人基本法草案》彌補《智慧機器人發展和促進法》於法律內部體系權利價值詮釋上的缺陷,然經立法成本與當時技術成熟度之衡量,並未過早規範技術之發展。 二、借軟性規範措施型塑兼容並顧之環境   另方面,觀察韓國在面對人工智慧機器人時的應對方式,發現在促進發展上,韓國無不餘力地大力採用剛性立法手段,以鋪設技術、投資所需之基礎建設及支援。而就尚難定論之技術風險管控,像是倫理道德、歸責原則調控等,考量技術尚未臻成熟,實難以剛性立法方式加之管理,而有以政策方式先試先行之傾向,形塑具有包容彈性之環境,鼓勵人工智慧機器人產業之投入,並依此作為後續法規調適之基礎。   鑒於人工智慧機器人所涉領域之多元,誠然有必要以宏觀角度全盤檢視與調適相應之規範及措施。故而,韓國2019年底提出富含權益保障與經濟逐利精神之「人工智慧國家戰略」,並鏈結不同部會共司建立彈性包容人工智慧機器人產業之環境。 參、事件評析   綜觀上述,韓國面對人工智慧及機器人,對內,以剛性立法手段,先行鋪設智慧機器人產業發展之基礎,包含界定智慧機器人範圍、賦予行政機關訂定倫理規範等一定義務、設置行政支持法源依據、以分類系統規劃作為數據統計基礎進行決策等,以拉抬、激勵企業投入研發,促成經濟層面活動之擴散與發酵;對外,以軟性規範宣示韓國政府發展智慧機器人產業態度、吸引國際間產學研能量挹注,並同步促成內部社會法體制之調整,不難看出韓國政府的企圖與決心,且整體上已約略有鼓勵、促進逐漸轉變為管理層面意味。   在我國方面,亦已意識到人工智慧風險管理之重要性,立法委員並在2019年5月倡議《人工智慧發展基本法草案》希望以制定基本法之方式,從研究、開發乃至整合等,厚植我國人工智慧實力,並嘗試建立人工智慧開發準則與倫理原則。韓國前述有關人工智慧之規範作法,或許可茲我國借鏡,就促進人工智慧技術經濟層面效益之面向,可由政府擬定具實質效力之法規範推動之;就現尚難明確定位之倫理準則及風險控管,採用軟性規範方式,先行以具包容性之政策、指引等作法試行,以待日後技術臻至成熟穩定,再行考量轉化為立法管理之必要。 [1] Crawford, K. et al. The AI Now Report: The Social and Economic Implications of Artificial Intelligence Technologies in the Near-Term, AI Now, 2016, https://ainowinstitute.org/AI_Now_2016_Report.pdf (last visited May. 22, 2019) [2] Cassie Kozyrkov, What is AI bias?, https://towardsdatascience.com/what-is-ai-bias-6606a3bcb814 (last visited May. 22, 2019) [3] BBC, The real risks of Artificial Intelligence, http://www.bbc.com/future/story/20161110-the-real-risks-of-artificial-intelligence(last visited May. 22, 2019). [4] 김성원 선임,지능정보사회의 도래와 법·윤리적 과제- 인공지능기술의 발달을 중심으로 -, National Industry Promotion Agency(2017/11/15), p10. [5] 總理會議係韓國特有的系統,主要由總統、總理以及15位至30位不等之國務院成員共同組成,成員包含各部會之首長。主要職能是做為國家決策的機構,並協調政策或行政事務。詳細資料可參見:http://theme.archives.go.kr/next/cabinet/viewIntro.do。 [6] 〈정부, AI 국가전략 발표…”AI 반도체 세계 1위 목표”〉,Bloter,2019/12/17,http://www.bloter.net/archives/364678 (最後瀏覽日:2020/2/1)。 [7] 〈인공지능(AI) 국가전략 발표〉,과학기술정보통신부,2019/12/17,https://www.msit.go.kr/web/msipContents/contentsView.do?cateId=_policycom2&artId=2405727 (最後瀏覽日:2020/2/1)。 [8]〈인공지능 국가전략〉,관계부처 합동,2019/12,頁36-38。

何謂「權利懈怠原則」?

  美國專利法中,權利懈怠原則係指當事人構成怠於行使權利之情形時,可作為專利侵權之防禦抗辯事由。目前美國專利法282條(b)款(1)項已將權利懈怠抗辯成文法化,聯邦最高法院相關判決之見解認為權利懈怠原則之目的為填補法律缺陷(filling the gap),主要針對法律條文並未明確規範時效時之特殊情況,考量到專利法第286條之規定以及聯邦最高法院曾於2014年Petrella v. Metro-Goldwyn-Mayer一案中判決權利懈怠不得作為美國著作權法第507條(b)款訴訟時效限制之抗辯理由。因此美國專利法上的權利懈怠原則並非訴訟時效限制(statute of limitations),而是侵權賠償時效限制(damage limitations)。此外,不會產生類似衡平禁反言之誤導當事人及造成該方後續損失之結果,基於兩者此一性質不同,也不會直接排除當事人持續權利金之權利資格。

TOP