德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。
諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求:
(1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。
(2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。
(3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。
(4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。
(5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。
(6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。
(7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。
綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。
工業技術研究院系統晶片技術發展中心( STC)計畫將其與國立交通大學推出的靜電放電防護(ESD protection)技術相關專利授權業界,該專利以6大組合區分,包含「輸出入介面電路之靜電放電防護」、「高速/射頻/混壓輸入輸出IC之靜電放電與電性栓鎖防護」、「輸出入單元電路設計」等共計110件專利,預計進行專屬授權。 隨著半導體產業競爭全球化,競爭型態也從過去的價格戰轉變成智慧戰,半導體產業廠商需快速大量取得專利權進行佈局,才能保持產業競爭力。配合產業界對專利的需求,工研院此次專屬授權的 ESD專利組合,主要來自STC的研發成果,將IC半導體產業中極重要的靜電放電防護與輸出入單元電路設計(I/O Circuit Design)相關專利,搭配交通大學電子工程系靜電放電防護專利,公開徵求專屬授權廠商。 ESD專利組合專屬授權說明會訂7月21日上午9時30分於工研院竹東中興院區9館010室召開,內容包括專屬授權競標規則、專利組合及專屬授權契約內容介紹,並隨即開放通訊投標,結標日為9月23日。
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。
淺談創新應用服務(OTT)之創新與規範課題淺談創新應用服務(OTT)之創新與規範課題 科技法律研究所 法律研究員 蔡博坤 2015年05月26日 隨著資通訊科技快速的發展,例如網際網路、雲端運算、智慧聯網、巨量資料、4G/5G等等,創新應用服務(Over-the-top, OTT)已逐漸包含各種基於網際網路之服務與內容。此科技應用的服務應如何在現行法律規範體系下被論及,其本身以及衍生的議題復為何,均為所欲介紹的核心,本文係以美國作為觀察之對象,希冀對於我國未來在OTT領域之法制有所助益。 壹、美國FCC對於創新應用服務(OTT)的態度觀察 在美國,聯邦通訊委員會(Federal Communication Commission, FCC)係美國境內主管電信與通訊領域聯邦層級的主管機關,對於網際網路上之新興應用服務,為鼓勵新興技術的發展,一向以避免管制為原則,也因此一些OTT TV或VoIP之商業模式,近年來無論係在美國境內抑或境外,皆有著長足的發展。另一方面,隨著科技快速變遷,FCC亦與時俱進持續透過公眾諮詢,尋求是否有調整相關定義,抑或擴張規範管制之必要。例如,2014年12月,FCC發布一個法規修訂公開意見徵集的通知(Notice of Proposed Rulemaking, NPRM),希冀更新目前於1934年通訊法(Communications Act of 1934)下之相關規範,以反映目前透過網際網路所提供的影音服務,特別將更新對於Multichannel Video Programming Distributor(MVPD)一詞定義。 貳、關鍵之法制課題 由於FCC在創新應用服務(OTT)領域市場管制者(market regulator)的角色乃至關重要,同時,提供此應用服務的業者,無論係電信業者還是新興科技業者,其彼此間相互且複雜之法律關係,所衍生之法制議題,實有必要探討以及釐清,謹就兩個層面的問題概述如下: 關於第一個層次網路中立(Net Neutrality)的議題,從相關案例實務判決觀察,2014年2月,美國有線寬頻業者Comcast即以頻寬有限資源,以及確保網路流量充足的理由,說服Netflix服務營運商,同意因此付費給Comcast,而雙方所進行之合作,也引起所謂網路中立性的爭議課題。今(2015)年2月,FCC於最新通過的Open Internet Order,有別於過往命令僅能有限度地適用於行動網路服務業者(mobile broadband),新的命令將能全面性地適用於固網以及行動網路業者,反應近年來在無線寬頻網路科技之快速進展,將擴張保護消費者近取網際網路的方式。 其次,觀察目前美國境內OTT的業者,包括Now TV、Netflix、Ditto TV、Whereever TV、Hulu、Emagine、myTV等,均有建置整合平台,俾利提供消費者新型態的商業服務,從知名Netflix公司所建構的平台政策,相關重要的規範課題包含資料的蒐集、處理與利用,也提到對於安全性的重視與兒少保護等。在相關隱私權議題面向,其指出,由於使用者得通過不同的媒介透過網際網路近取相關服務,誠是些來源皆有各自獨立之隱私權聲明、注意事項與使用規約,除了提醒用戶應盡相關的注意義務外,相關衍生的責任亦會予以劃清。 參、簡評 從上述可得知,創新應用服務(OTT)整體之發展,係與網際網路(Internet)相關推動工作係一體的,因此,我國未來如欲推動OTT相關創新服務,相關網際網路所衍生的議題,例如網路中立等,勢必將成為重要的法制層面所亟需探究之課題。 在我國,如同美國聯邦通訊委員會(FCC)角色之行政主管機關係國家通訊傳播委員會(NCC),在主管的法令中,目前依據電信法相關規範,電信事業應公平提供服務,除另有規定外,不得為差別處理(第21條);無正當理由,第一類電信事業市場主導者不得對其他電信事業或用戶給予差別待遇,抑或不得為其他濫用市場地位或經主管機關認定之不公平競爭行為(第26-1條)。 相關法律條文規範是否可因此援引作為討論創新應用服務(OTT)之法源基礎,復如何調和第一類電信事業市場主導者與新興應用服務科技業者之關係,仍存在著灰色地帶。從鼓勵產業創新之觀點出發,謹初步建議從正面的立場,鼓勵相關創新應用發展,宜避免逕就OTT服務過度管制。