德國經濟及能源部於2018年3月8日為企業資訊安全保護措施建議及資料保護、資料所有權相關法規提出建議文件,協助中小企業提升對於組織及特別領域中的資安風險之意識,並進一步採取有效防護檢測,包括基本安全防護措施、組織資安維護、及法規,並同時宣導德國資料保護法中對於資安保護的法定要求。
資通訊安全及其法規係為企業進行數位化時,涉及確保法的安定性(Rechtssicherheit)之議題。加強資安保護,除可增進銷售及生產力,並使商業貿易間有更大的透明度和靈活性,和創造新的合作信賴關係。因此相關網路內容服務提供商應符合法律要求,提供相關服務,並使共享資料得到完善的保護。例如:應如何保護處理後的資料?如何執行刪除個人資料權利?各方如何保護營業秘密?如果資料遺失,誰應承擔責任?唯有釐清上述相關等問題時,方能建立必要的信任。而在德國聯邦資料保護法,歐盟一般個人資料保護法、歐盟網路與資訊安全指令等規範及相關法律原則,係為數位創新企業執行資安基礎工作重要法律框架。但是,由於數位化的發展,新的法律問題不斷出現,目前的法律框架尚未全面解決。例如,機器是否可以處理第三方資料並刪除或保存?或是誰可擁有機器協作所產生的資料?因此,未來勢必應針對相關問題進行討論及規範。鑑於日益網路化和自動運作的生產設備,工業4.0的IT法律問題變得複雜。一方面,需要解決中、大型企業的營業祕密,資料所有權和責任主題之實際問題,以促進相關數位化創新。另一方面,為了能夠推導出現實的法律規範,需要更多具體實施案例討論。
據研究顯示,企業家對產品責任問題,人工智慧使用,外包IT解決方案,及雲端計算等核心問題的新法規以顯示出極大的興趣,並進一步列入既有或規劃中研究項目。未來,政府將協助為所有公司在安全框架下展開數位計畫合作的機會,並充分利用網路的潛力,而中小企業4.0能力中心也將為中小型公司在數位化目標上提供IT法問題方面的支持。
本文為「經濟部產業技術司科技專案成果」
.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。
美國第七巡迴上訴法院於Wallace v. IBM, Red Hat, and Novell 一案認定GPL或自由軟體授權模式不違反聯邦反托拉斯法美國第七巡迴上訴法院( U.S. Court of Appeals (7thCir) )最近就 Wallace v. IBM, Red Hat, and Novell 一案做出判決,本案爭執重點在於 GPL 授權條款與反托拉斯法之間的關係,美國第七巡迴上訴法院認為 GPL 授權條款並不違反反拖拉斯法,法院也同時明確表示,一般而言自由軟體無須擔心會違反反托拉斯法。 本案上訴人 Daniel Wallace 係程式設計師,其欲販售由 BSD ( Berkeley Software Distribution )所開發出來的競爭軟體給各級學校。 BSD 是 Linux 的衍生版本,而 Linux 作業系統則是屬於自由軟體的一種,想要使用 Linux 的人就必須遵守 GPL 授權條款。依 GPL 授權條款規定,不論 Linux 或 Linux 之衍生著作均不得收取授權費用,上訴人因此指控 IBM 、 Red Hat 、 Novell 與自由軟體協會涉嫌共謀將軟體價格設定在零,涉嫌以掠奪性定價( predatory pricing claim )方式削減作業系統市場之競爭,已違反反托拉斯法。 法院認為,本案並無法主張掠奪性定價,蓋被上訴人 IBM 、 Red Hat 及 Novell 並無法因此而取得獨佔價格,其授權價格之所以為零乃是遵照 GPL 授權條款的結果,且消費者並未因此受到損害。其次,法院也指出,著作權法通常對他人之改作權加以限制,其目的是為了收取授權金,不過著作權法人亦可用以確保自由軟體維持零授權金,因此任何嘗試想要販售自由軟體之衍生著作者,將會違反著作權法,即令改作人不同意接受 GPL 授權條款的約束。
英國核准全球首例人類胚胎基因體編輯研究英國人類生殖及胚胎學管理局(Human Fertilisation and Embryology Authority)的執照委員會(Licence Committee)於2016年1月14日更新(renew)了法蘭西斯克利克研究中心(Francis Crick Institute)所持有的研究執照。該項更新的內容,成為全球首例由政府核准的人類胚胎基因體編輯研究。 本次更新的執照,是針對標號R0162實驗計畫(research project)所簽發的。該計畫全名是「人類剩餘胚胎幹細胞之研究:人類胚胎幹細胞之培養、維持多能性之因子特性以及形成可移植組織所需的特殊分化」(Derivation of stem cells from human surplus embryos: the development of human embryonic stem cell (hES) cultures, characterisation of factor necessary for maintaining pluripotency and specific differentiation towards transplantable tissues),該計畫的執照是在2005年時核准,有效期限至2016年3月26日。本次申請更新主要的變動有二,一是將計畫全名中的「剩餘」(surplus)二字拿掉,一是在執照內新增基因體編輯的研究技術──「CRISPR/Cas9」,並計劃將其運用在人類胚胎之上。 審查由人類生殖及胚胎學管理局所屬的執照委員會負責,該委員會由四位委員組成,有兩位行政機關人員負責行政事務,並有一名來自民間律師事務所的法律顧問負責提供法律意見諮詢的服務。 在審查的過程中,委員會依據申請人提交的計畫以及兩份同儕審查(peer review)的意見,審查了該計畫對人類胚胎進行人體試驗的可行性、必要性及合法性等議題。委員會確認該計畫的研究目的符合相關法令的要求,亦遵守規定不會使胚胎、卵子或精子置入女性身體或使其發育超過14天,同時該研究並確實為研究人類胚胎發育上所必要,也嚴格限制了使用的數量。 委員會僅對於其基因體編輯技術上未取得研究倫理委員會(Research Ethics Committee)的同意一事有所疑慮。委員會認為申請人應先取得研究倫理委員會的同意,才可申請執照。申請人解釋研究倫理委員會要求申請人要先取得執照更新後才願意開始審理,並承諾在通過倫理委員會同意後,才會開始相關實驗。在法律顧問的建議下,委員會最終通過了本次執照的更新,但在執照上加註相關實驗需待取得研究倫理委員會同意,並通知人類生殖與胚胎學管理局後,才可以實施。 委員會最終決定核發有效期限3年的執照給予該研究機關,於有效期限內,該研究機構可以保存、利用、儲藏胚胎。
美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試《演算法問責法案》(Algorithmic Accountability Act)於2022年4月由美國參議院提出,此法案係以2019年版本為基礎,對演算法(algorithm)之專業性與細節性事項建立更完善之規範。法案以提升自動化決策系統(automated decision systems, ADS)之透明度與公平性為目的,授權聯邦貿易委員會(Federal Trade Commission, FTC)制定法規,並要求其管轄範圍內之公司,須就對消費者生活產生重大影響之自動化決策系統進行影響評估,公司亦須將評估結果做成摘要報告。 《演算法問責法案》之規範主體包括:(1)公司連續三年平均營業額達5000萬美元,或股權價值超過2.5億美元者,並處理或控制之個人資料超過100萬人次;以及(2)公司過去三年內,財務規模至少為前者之十分之一,且部署演算法開發以供前者實施或使用者。ADS影響評估應檢視之內容包括: 1.對決策過程進行描述,比較分析其利益、需求與預期用途; 2.識別並描述與利害關係人之協商及其建議; 3.對隱私風險和加強措施,進行持續性測試與評估; 4.記錄方法、指標、合適資料集以及成功執行之條件; 5.對執行測試和部署條件,進行持續性測試與評估(含不同群體); 6.對代理商提供風險和實踐方式之支援與培訓; 7.評估限制使用自動化決策系統之必要性,並納入產品或其使用條款; 8.維護用於開發、測試、維護自動化決策系統之資料集和其他資訊之紀錄; 9.自透明度的角度評估消費者之權利; 10.以結構化方式識別可能的不利影響,並評估緩解策略; 11.描述開發、測試和部署過程之紀錄; 12.確定得以改進自動化決策系統之能力、工具、標準、資料集,或其他必要或有益的資源; 13.無法遵守上述任一項要求者,應附理由說明之; 14.執行並記錄其他FTC 認為合適的研究和評估。 當公司違反《演算法問責法案》及其相關法規有不正當或欺騙性行為或做法時,將被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)規定之不公平或欺騙性行為,FTC應依《聯邦貿易委員會法》之規定予以處罰。此法案就使用ADS之企業應進行之影響評估訂有基礎框架,或可作為我國演算法治理與人工智慧應用相關法制或政策措施之參酌對象,值得持續追蹤。