安全至上 監看有理?-論工作場所電子郵件監看法制爭議

刊登期別
2004年
 

相關附件
※ 安全至上 監看有理?-論工作場所電子郵件監看法制爭議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=779&no=57&tp=1 (最後瀏覽日:2026/05/08)
引註此篇文章
你可能還會想看
愛看Meme的網友們注意了!歐盟新著作權指令「迷因禁令」(Meme Ban)

  歐盟數位單一市場著作權指令(Directive on Copyright in the Digital Single Market 2016/0280,簡稱COD)中最具爭議性的草案為第13條,被稱為「上傳過濾器」(upload filter),其課予如YouTube、Facebook 及Twitter等內容產業業者,具有防止著作權侵權內容於其平臺被上傳與分享之責任,故平臺須以有效的內容辨識科技(effective content recognition technologies)對所有使用者的上傳內容進行監督與審查,因此又被稱為「迷因禁令」(Meme Ban)。據此,所有二次創作內容均會被禁止上傳於平臺。   所謂「謎因(Meme)」在牛津字典被定義為「具幽默本質並可迅速被複製、散布於網路使用者間,且通常會輕微改作的圖片、影片或文本等(An image, video, piece of text, etc., typically humorous in nature, that is copied and spread rapidly by Internet users, often with slight variations.)」。不少公開平臺甚至以提供觀看、上傳Meme為主要內容,如國際知名Meme網站- 9GAG。若該法通過,對這些大量分享二創內容的網路平臺,將造成全面性的衝擊;此外,也有不少平臺巨頭如YouTube的CEO針對這項草案發出將侵害人權與言論和創作的憂心建言。   該草案自2016年提出歷經歐洲議會多次表決,預定於明年(2019)元月進行最終表決,這個極具爭議性的條款未來將如何發展,是否即將翻轉現有網路二創環境值得關注,社群網路也已經發展出#SaveYourInternet的主題標籤,呼籲大眾的重視。

英國醫學總會新指南 提醒醫師在保護病患隱私權和保護可能具有共同基因者健康之間做出衡平

  英國醫學總會(General Medical Council, GMC)在2009年9月公佈了一份有關醫師保密義務的指南(Guidance for doctors - Confidentiality),該指南針對基因檢測資訊的部份指出,病患的基因資訊和一些其他的資訊,有時也會是和病患擁有共同基因或其它連結的其他人的資訊,因為,在病患身上所診斷出來的因有缺陷基因所造成的疾病,可能也就指出了和病患有血緣關係的親屬的發病可能性,或甚至是幾乎可以確定他們未來也會發病。此時,醫師要提醒病患應該立即通知也有可能有此有缺陷基因的親屬,以期能夠協助那些親屬接受預防治療或作更進一步的檢查,對潛在的健康問題有所準備。   然而,若是病患表示了反對的意思,例如病患是來自一個破碎的家庭,和親屬的關係並不良好,或是基於其它個人的理由,所以不願意告知親屬相關有缺陷基因的風險時,則指南提醒醫師應該要自行衡量身為醫師對於保護病患所需遵守的義務,以及協助保護他人免於嚴重傷害兩者之間孰輕孰重。此外,若經過醫師的判斷之後,決定要向那些親屬告知他們所可能面對的健康風險時,醫師必須要採行不會透露病患身份的方式為之。   當然此種基因檢測資訊的通知,引起了正反兩極的評價,反對者主張此舉將嚴重侵害病患隱私權,也可能損害了醫師與病患間資訊保密的原理原則。唯贊成者則指出,許多的基因疾病,如亨丁頓舞蹈症、囊狀纖維化(Cystic fibrosis)、血友病(Haemophilia)、及乳癌(Breast cancer)等,都有著極高的遺傳性及致死率,透過此一機制所能達到的早期警告的效果,或可使得帶有相同有缺陷基因的病患親屬,能夠對潛在的健康問題及早有所準備。且若該等親屬正要或未來要透過試管嬰兒取得下一代時,亦可在執行試管嬰兒的程序中進行篩檢,防止下一代的人生繼續遭受此種有缺陷基因所帶來的疾病。

英國無線電頻譜管理改革政策(下)--風險評估與對策

加拿大政府提交予國會《人工智慧資料法案》

  加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。   AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露   i 系統如何或打算如何使用。   ii 系統所生成果的類型及它所做出的決策、建議與預測。   iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。   iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。

TOP