為因應有害化學物質所產生之公安事件,2015年6月8號美國職業安全管理局(Occupational Safety and Health Administration,簡稱(OSHA))發佈一項措施,針對具危險性化學物質之運輸過程,規範處理程序,包括製造商須提供物質安全數據表,以及可能具有風險的有害物質說明書等。
為此,OSHA考量到此將影響化學製造商營業秘密保護,遂提出判斷準則,以釐清對於化學製造商而言,何種情況將構成營業秘密,包括:(1)在一定的程度內該資訊是否已被外界所知;(2)在一定程度內,該資訊對於員工或其他參與者是否已知;(3)是否有一定程度對於該資訊內容進行保護措施;(4)該資訊對於競爭對手是否有價值;(5)是否投入大量時間和金錢開發該資訊;(6)該資訊對企業而言是否得被他人簡易取得與複製。
進而在符合上述營業祕密要件時,企業即無須對一般員工(非研發工程師)揭露化學公式等內容,其中包括一般操作人員或者運輸人員等。然而考量到此等人員接觸化學物質情況頻繁,倘若操作人員或者運輸人員工作過程中,因有害但屬營業祕密之化學物質造成意外傷害,為平衡公眾安全與營業秘密之保障,OSHA要求化學製造商必須立即提供醫護人員有害化學物質方程式等內容,但可要求醫護人員簽訂保密協議,藉此兼顧公安與營業秘密之保障。
美國網際網路安全聯盟(Internet Security Alliance,ISA)日前公佈一份新的報告,期使歐巴馬政府之「網路空間政策檢討」(Cyberspace Policy Review)能更進一步的落實。 網路安全聯盟主席Larry Clinton指出:「ISA對歐巴馬政府的網路安全政策表示支持,而目前民間機構需要設計一套規範,去落實ISA與政府對於網路安全重要議題共通之協議。本次所提出的報告,就是為了要提供能解決此一關鍵問題的架構。」 此份報告之標題為「利用ISA之社會契約模型執行歐巴馬政府之網路安全策略」(Implementing the Obama Cyber Security Strategy via the ISA Social Contract Model),而此報告強調必須重視網路安全的經濟意義。 Clinton認為,一旦討論到網路安全議題,會發現所有的經濟因素都對攻擊者有利,攻擊者總是能以簡單、成本低廉之攻擊方式得到巨大的利益。相對地,防守者(網路使用者)卻往往要付出高昂的成本。需要防護的領域太廣,而投資的回收通常很有限。必須從經濟的角度去平衡考慮成本與回收,才能建立具實效性且持續穩固的網路安全系統。 此份報告包含下列事項之架構:1.在商業計劃層面,創設政府與民間機構的合作夥伴關係,以強化網路安全;2.提出關於網路安全的國際議題;3.維持全球IT產業供應鏈的安全;4.建立新式資訊分享範例。 上述架構均依循ISA之網路安全社會契約模型,此一模型是源自於20世紀早期美國政府為了提供民間企業電信與電力服務,所成功建立之夥伴關係。
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
韓國「2021年經濟政策」韓國財政經濟部(Ministry of Economy and Finance)於2020年12月17日發布「2021年經濟政策」(2021 Economic Policies)。2021年經濟政策中包含兩大重點,分別為因應新型冠狀病毒影響下的不確定性,盡快恢復經濟成長動能,以及推動產業創新與結構轉型,以培植未來的經濟成長動力。政策文件中指出,儘管2020年經濟成長率因疫情影響而表現低迷,但仍期許2021年經濟能夠盡快好轉,改善投資、出口與國內就業。 針對如何盡快恢復經濟成長動能議題,政策文件指出首先應處理因疫情帶來的不確定性,除了維持擴張性財政政策,以增加政府支出刺激總體需求外,在經濟成長與疫情防治間應取得平衡並加強風險管理;其次為透過租稅減免促進消費、擴大投資額度與提供出口融資,以及提供資金以扶植中小企業、提供優惠貸款協助大型企業度過疫情難關、鬆綁法規以發展地方經濟等一連串措施,來達到恢復經濟成長動能的目標。 而在推動產業創新與結構轉型上,將持續投資於5G應用與6G技術的發展上,推動數位經濟與數位政府系統建構,具體措施包含減免投資5G應用貸款稅率2%、籌集投資數位新政基金、完善智慧醫療應用等。此外在扶植新創政策上,則包含建立新興科技實驗場域(K-test bed),以政府採購扶植新興科技、提供商機以及協助銜接海外市場,修正創投法規開放附認股權憑證之低利貸款以引進矽谷創投資金,以及排除可轉換可贖回之債務認定以降低政府研發補助申請門檻等,以有效扶植創新能量成為未來的經濟成長動力。
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。