企業監看員工網路活動法律爭議之防堵

刊登期別
2005年01月,第175期
 

相關附件
※ 企業監看員工網路活動法律爭議之防堵, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=780&no=55&tp=1 (最後瀏覽日:2026/05/15)
引註此篇文章
你可能還會想看
歐盟執行委員會提議建立網路安全研究與協調單位

  2019年7月24日歐盟執行委員會公布保障歐洲安全之措施,其中針對網路安全部分,將以2017年宣布之網路安全措施為基礎,建立網路安全相關之研究與協調單位,以投資培植歐盟更強大和更具開拓性的網路安全能力。該研究與協調單位預計於歐盟範圍內,以成員國內660多個網路安全專家中心的專業知識基礎,建立一個相互聯繫的網路安全產業和研究系統。此舉有助歐盟及成員國積極推行網路安全產業政策,並為產業和公共部門面臨的網路安全挑戰提出突破性解決方案。建立的相關研究與協調單位分別為: 一、歐盟網路安全產業科技研究能力中心(The European Cybersecurity Industrial, Technology and Research Competence Centre):此中心旨在培植網路安全能力社群,推動網路安全技術進程。並藉由分配補助金及執行採購來實踐數位歐洲及歐洲地平線計劃。 二、國家網路協調中心(Network of National Coordination Centres):每個會員國提名一個國家協調中心,為國家級聯絡點,負責聯絡網路安全能力社群及歐盟網路安全產業科技研究能力中心。國家網路協調中心是受國家支持採取行動的守門人(gatekeeper),同時可以向國家、地方系統提供資金。 三、網路安全能力社群(The Cybersecurity Competence Community):該社群為涉及網路安全技術的大型、開放及多樣化的組織。參與者有研究機構、供需產業雙方及國營部門。並為歐盟網路安全產業科技研究能力中心提供活動及工作計劃。

敏感科技保護

  「敏感科技」的普遍定義,係指若流出境外,將損害特定國家之安全或其整體經濟競爭優勢,具關鍵性或敏感性的高科技研發成果或資料,在部分法制政策與公眾論述中,亦被稱為關鍵技術或核心科技等。基此,保護敏感科技、避免相關資訊洩漏於國外的制度性目的,在於藉由維持關鍵技術帶來的科技優勢,保護持有該項科技之國家的國家安全與整體經濟競爭力。   各國立法例針對敏感科技建立的技術保護制度框架,多採分散型立法的模式,亦即,保護敏感科技不致外流的管制規範,分別存在於數個不同領域的法律或行政命令當中。這些法令基本上可區分成五個類型,分別為國家機密保護,貨物(技術)之出口管制、外國投資審查機制、政府資助研發成果保護措施、以及營業秘密保護法制,而我國法亦是採取這種立法架構。目前世界主要先進國家當中,有針對敏感科技保護議題設立專法者,則屬韓國的「防止產業技術外流及產業技術保護法」,由產業技術保護委員會作為主管機關,依法指定「國家核心科技」,但為避免管制措施造成自由市場經濟的過度限制,故該法規範指定應在必要的最小限度內為之。

何謂德國「EXIST補助計畫」?

  德國在2000年以後便將聯邦政府補助的其中一個方向集中在鼓勵科技創業,主要推動機關為聯邦教育暨研究部(Bundesministerium für Bildung und Forschung, BMBF)與聯邦經濟暨能源部(Bundesministerium für Wirtschaft und Energie, BMWi)。其中BMWi的EXIST計畫訴求建立一個科技創業有善的環境,並分三項子計畫運作:EXIST創業文化計畫(EXIST-Gründungskultur),EXIST創業補助計畫(EXIST-Gründerstipendium),EXIST研發成果移轉計畫(EXIST-Forschungstransfer)。   其中,EXIST創業文化計畫著重於在學研機構內塑造創業文化,誘發學研機構創業潛力與企業家性格;EXIST創業計畫則是鎖定學研機構內的個人(科學家、研究生、大學生),希望透過對這些個人的生活補助,使其商業發想可化為營運計畫書(Businessplan),進而開發成為商品或服務;EXIST研發成果計畫則是透過經費補助,鼓勵學研機構內的研究團隊利用設立衍生公司方式運用研發成果,在創業前的籌備階段與公司設立初期導入專業團隊,協助評估相關的創業理念、經營模式、財務評估與資金運用等規劃是否妥適,使公司創立的籌備更為妥善且禁得起市場考驗。

澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架

澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).

TOP