自2013年7月1日起,2013年國防授權法(2013 National Defense Authorization Act,NDAA)新規定生效,使得聯邦政府採購案件對告發不法行為者(whistleblower)的保護,由承包商的雇員擴及於分包商的雇員,在此之前,如果分包商的員工向政府直接告發不法行為時,絲毫沒有法律可以用於對抗雇主可能採取的報復措施。
2013 NDAA業於1月份經美國總統簽署,期中除新增對於分包商雇員保護外,該法案也擴張了主包商員工的保護範圍。新法之下,主包商員工如向其公司內部之主管告發不法行為,一樣可以受到法律對告發者的保護,強化了現行法下只有直接對政府申訴者始能得到法律保護。
根據2013 NDAA第828節之規定,承包商、分包商之雇員,都不能被解雇、降級或其他歧視行為以作為揭發行為之報復。當這些雇員合理認為有關於聯邦契約的管理不善、聯邦經費的浪費、或濫用聯邦契約授與之權力等行為,而可能造成潛在的或特定的對公共健康或安全之危害時,或違反聯邦契約行為有關法律或法規時,而向國會議員、稽查總長、政府課責辦公室(The Government Accountability Office)、聯邦契約管理人員、司法部人員、法院或陪審團、承包商或次包商負責調查不法之人員等提供資訊時。法規也明訂,條文中所謂報復,包括該等人員即使是受到行政機關人員在法定權限內的的正式要求而提供資訊時亦然。
本文為「經濟部產業技術司科技專案成果」
為因應有害化學物質所產生之公安事件,2015年6月8號美國職業安全管理局(Occupational Safety and Health Administration,簡稱(OSHA))發佈一項措施,針對具危險性化學物質之運輸過程,規範處理程序,包括製造商須提供物質安全數據表,以及可能具有風險的有害物質說明書等。 為此,OSHA考量到此將影響化學製造商營業秘密保護,遂提出判斷準則,以釐清對於化學製造商而言,何種情況將構成營業秘密,包括:(1)在一定的程度內該資訊是否已被外界所知;(2)在一定程度內,該資訊對於員工或其他參與者是否已知;(3)是否有一定程度對於該資訊內容進行保護措施;(4)該資訊對於競爭對手是否有價值;(5)是否投入大量時間和金錢開發該資訊;(6)該資訊對企業而言是否得被他人簡易取得與複製。 進而在符合上述營業祕密要件時,企業即無須對一般員工(非研發工程師)揭露化學公式等內容,其中包括一般操作人員或者運輸人員等。然而考量到此等人員接觸化學物質情況頻繁,倘若操作人員或者運輸人員工作過程中,因有害但屬營業祕密之化學物質造成意外傷害,為平衡公眾安全與營業秘密之保障,OSHA要求化學製造商必須立即提供醫護人員有害化學物質方程式等內容,但可要求醫護人員簽訂保密協議,藉此兼顧公安與營業秘密之保障。
澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國國際消費電子展研討會討論有關打擊專利蟑螂議題美國國際消費電子展(International Consumer Electronics Show, CES)是每年全球介紹消費性電子產品的第一場重頭戲,2013年於美國時間1月8日在拉斯維加斯會議中心(Las Vegas Convention Center, LVCC)展開,展期持續四天。CES展展出面積17萬平方公尺,有超過3,250個參展公司,展出20,000種最新科技的電子產品,超過15萬人次參加。除了展出電子產品最新趨勢,CES同時也對於電子資訊相關議題開設研討會議,今年共有超過300場的研討會。 其中有一系列名為「創新政策高峰會」(Innovation Policy Summit)的研討會主題,討論政府部門如何與企業合作促進經濟成長及創新應用。高峰會中除邀請各科技領域中的創新發明者,還邀請政府部門、國會議員等,討論與科技政策最相關的種種議題。值得注意的是,創新政策高峰會中一場主題為「打擊專利蟑螂」(Fighting the Patent Trolls)的研討會於1月8日舉行,討論有關政府及民間業者如何打擊影響科技產業的專利蟑螂(Patent Trolls),與會者除了有眾議員Peter DeFazio,還有Google、電子前線基金會(Electronic Frontier Foundation,EFF)、電子製造商Voxx International、零售商Home Automation等等企業代表,分享被專利蟑螂控訴專利侵權的經驗及提供意見。 在研討會中討論出的打擊方案有以下幾點: ‧擴展DeFazio眾議員提案的「保護高科技創新者免於惡意訴訟法案」(The Saving High-tech Innovators from Egregious Legal Disputes Act, SHIELD Act)到其他受專利蟑螂攻擊的產業,同時修改法案要求原告應在法院判決其負擔被告訴訟費用時,同時提出擔保金。 ‧應簡化專利局審核時質疑(challenge)不良專利的程序。 ‧在專利訴訟中對實際損害(actual damages)應提出更明確證據,並應更嚴格審查核發初步禁制令。 ‧科技公司應設法自救或組成聯盟,或者推廣Twitter公司2012年提出的「專利發明者協議」(Innovator Patent Agreement),該協議讓公司內專利發明者對其發明專利有更大控制權,並承諾公司僅會將其專利用於防衛用途。 其中第一點的SHIELD法案,是眾議員DeFazio及Jason Chaffetz為遏止專利蟑螂於2012年8月共同提案。該法案目標在打擊專利蟑螂,針對電腦軟硬體提出的專利訴訟,原告若無勝訴之合理可能性(reasonable likelihood of succeeding),法院得判決原告必須負擔被告訴訟費用及律師費用,以達到遏止專利蟑螂的目的。然而目前SHIELD法案立法進度停滯,DeFazio預計將提出修正版本爭取通過。DeFazio表示,該法案若要成功立法,需要各界聯合及廣泛支持。
韓國公共行政安全部制定《公部門AI倫理原則》草案,以提升民眾對公部門應用AI之信任2025年11月,韓國公共行政安全部(Ministry of the Interior and Safety,下稱MOIS)於新聞稿宣布制定《公部門AI倫理原則》草案,追求公益、公平無歧視、透明、問責明確、安全性及隱私保護等六大核心價值,旨於促進創新、提升民眾對公部門應用AI之信任。 一、適用範圍 《公部門AI倫理原則》草案適用對象為公部門,包含中央、地方政府機關等,其性質為不具強制力的指引。 二、檢核表分三階段漸進式管理 《公部門AI倫理原則》草案依AI 應用的複雜程度分為三階段漸進式管理,設計最高達90個細項的檢核表(Checklist),惟目前尚未公開詳細內容: (一)第一階段:基礎導入(AI基礎應用) 針對技術引進的初步活用階段,共包含31個檢核項目,旨在建立基礎的倫理合規防線。 (二)第二階段:進階應用(AI決策支援) 適用於AI提供資料分析與建議以輔助人員進行行政決策的情境。隨著影響力提升,檢核項目擴增至74個,強化透明性與責任性的審查。 (三)第三階段:深度融合(AI自主決策) 針對AI具備高度自主決策權的高風險情境(如自主化服務或複雜判斷),執行最嚴密的倫理檢查,共達90個檢核項目。 建議公部門依檢核表自行檢查,並依結果建立「調整與回饋」的循環機制,以因應不斷變化的技術環境。 MOIS部長指出,未來將進一步蒐集學界意見以完備倫理原則,並開發一套AI倫理原則之培訓課程,確保一線能落實執行這90個檢核項目,保障人權與基本權利。 由於目前未見90個檢核項目內容,值得持續追蹤後續進展。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)