以色列政府採購之創新實踐

刊登期別
第29卷,第12期,2017年12月
 
隸屬計畫成果
經濟部技術處產業科技創新之法制建構計畫成果
 

本文為「經濟部產業技術司科技專案成果」

※ 以色列政府採購之創新實踐, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7946&no=64&tp=1 (最後瀏覽日:2026/04/04)
引註此篇文章
你可能還會想看
ECtHR就國會發言揭露個資是否構成隱私權侵害作成判決,強調應尊重國家之裁量

歐洲人權法院(European Court of Human Rights,簡稱ECtHR)於2025年4月8日就Green v. The UK案作成判決,針對國會議員發言揭露個資是否構成隱私權侵害之爭議,強調國家就衡平立法權與司法權的界線、言論自由與隱私保護等利益享有裁量權,駁回了申訴人之請求。 一、事實背景 本案起源於英國每日電訊報(Telegraph)試圖就英國零售集團Arcadia的前員工針對其董事長Philip Green的職場性騷擾與霸凌指控進行報導。先前,Arcadia及Green已與涉及相關糾紛的員工達成了和解協議,依據協議所附保密協定,員工除正當揭露(如向警察揭露犯罪)外不得洩露相關資訊。Green於Telegraph於報導前徵求當事人評論時發現資訊遭洩露,隨即向法院申請禁制令與暫時禁制令,英國上訴法院嗣後批准了暫時禁制令,認定Telegraph獲得的資訊很可能來自違反保密協定的揭露,也不認為欲報導的內容當然具備凌駕當事人可能蒙受之損害的公共利益。Telegraph最終尊重了暫時禁制令。惟隔日,一位英國上議院議員援引言論免責權,於議會發表了雖不涉及細節,但具體提及Green身分和關於其性騷擾、霸凌的指控,並提及Telegraph遭禁制報導一事。Green因此向議會申訴,認為議員違反了司法保密規則(sub judice rule)(編按:上議院曾做成決議,認除非具全國重要性,議員不得於動議、辯論或質問中論及繫屬於法院中的個案)及濫用免責權,但上議院標準專員(House of Lords Commissioner for Standards)認為司法保密規則不屬於《上議院行為準則》。Green嗣後在法院中試圖向Telegraph請求賠償,認為Telegraph應要為議員的發言負責,違反了禁制令,並要求提供線人身分。Telegraph抗辯,在議員享有免責權的前提下,法院毋庸受理本案處理其責任問題。Green向ECtHR提出申訴,主張國家對議員使用免責權揭露受禁制令約束的資訊的權力缺乏事前和事後控制,侵犯了其受歐洲人權公約(ECHR)第8條保障的私生活權。 二、法院判斷 法院認為由於受暫時禁制令保護的資訊被揭露,Green的私生活權利確實受到干預。然而,法院不認為國家違反了公約課予國家保護私生活權之積極義務(positive obligation)。核心理由在於:國家對如何履行積極義務有廣泛的裁量權,且於各國就保護方式較無共識,或涉及基本權利間之衡平時,法院尤應尊重裁量空間。 針對本案,法院認為:(1)議會中的言論自由享有較高程度的保護,對其干涉需要非常重大的理由(very weighty reasons);(2)涉及司法權與立法權的具體界線,以及言論自由與隱私保護的利益衡量;(3)必須考量議會自治原則在多國之間有廣泛共識;(4)英國並非完全沒有針對國會議員發言的事前、事後控制措施。儘管非屬《上議院行為準則》,但上議院所做成的司法保密規則決議,仍屬一定程度的事前控制。事後來看,國會議員若確實構成濫用免責權,法院也可以判處蔑視法庭罪。 法院總結認為,基於原則上各國議會較國際法院,更適合評估限制議會行為之必要性與手段,法院要取代這個判斷須要非常重大的理由,但本案中Green並無法成功論述這個理由存在,因此駁回Green的主張。

澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式

澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。

何謂「智慧機械」

  智慧機械產業為目前我國五大創新產業政策之一,主要目的是將臺灣從精密機械升級為智慧機械,爰此,行政院於105年7月核定「智慧機械產業推動方案」,整合我國豐沛的新創能量,建立符合市場需求之技術應用與服務能量,以創造我國機械產業下一波成長新動能。   智慧機械之定義係指整合各種智慧技術元素,使其具備故障預測、精度補償、自動參數設定與自動排程等智慧化功能,並具備提供Total Solution及建立差異化競爭優勢之功能;智慧機械的範疇包含建立設備整機、零組件、機器人、智慧聯網、巨量資料、3D列印、網實融合CPS、感測器等產業。而智慧製造係指產業導入智慧機械,建構智慧生產線(具高效率、高品質、高彈性特徵),透過雲端及網路與消費者快速連結,提供大量客製化之產品,形成聯網製造服務體系。   未來我國智慧機械與智慧製造領域仍待研發突破之項目有:工業用等級之視覺/觸覺/力感知等感測模組與驅動控制技術;微型感測元件智慧化;開放性標準網路通訊技術;機器型通訊及安全技術;耐延遲及低耗能機器聯網;健全人機智能介面,提升人機協同安全與效率;智慧聯網共通服務平台、資料分析與效能管理;網實融合智能系統需結合專業分析模型提升準確性及可靠度;機器人智慧整合能力及反應速度;供需產能整合與決策系統等等。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP