「國家科學技術發展計畫」為政府考量國家發展方向、社會需求情形以及區域均衡發展,而擬定之國家科學技術政策與推動科學技術研究發展之依據。依照《科學技術基本法》第10條之規定,國家科學技術發展計畫之訂定,應參酌中央研究院、科學技術研究部門、產業部門及相關社會團體之意見,並經全國科學技術會議討論後,由行政院核定。
全國科學技術會議每四年召開一次,最近一次會議為2013年的「第九次全國科技會議」,該次會議通過了民國102-105年的「國家科學技術發展計畫」,針對我國科技發展提出7項目標、27項策略及58項重要措施。7項目標包括:提升臺灣的學研地位、做好臺灣的智財布局、推動臺灣永續發展、銜接上游學研與下游產業、推動由上而下的科技計畫、提升臺灣科技產業創新動能、解決臺灣的科技人才危機等。
本文為「經濟部產業技術司科技專案成果」
在2014年4月時,美國裁決法官James Francis就聯邦檢察官的申請,依據1986年的「電子通訊隱私法」(Electronic Communications Privacy Act, “ECPA”)第2703條第a項之規定,針對微軟客戶的e-mail對微軟公司發出了搜索令。然而,該搜索令所要求的e-mail資料儲存在微軟位於愛爾蘭都柏林的資料中心,因此微軟以美國政府對於愛爾蘭並無司法管轄權為由,拒絕配合執行該搜索令,並且對發出搜索令的法官提出異議。但是Francis法官認為這並不是「域外搜索令」(extraterritorial search warrants),並指出在網路互聯的世界中,重點是對資料的控制,而不是「電子財產」的所在位置,於是拒絕了微軟的異議。 於2014年7月,微軟向紐約曼哈頓地方法院再度針對該搜索令提出異議,主張如果美國法院依據「電子通訊隱私法」要求資訊服務提供者提供位於愛爾蘭主機的客戶電子郵件資料,應透過美國與愛爾蘭政府的「多邊司法互助協定(Mutual Legal Assistance Treaty,“MLTA”)」來進行。但地方法院做出以下的裁決:1.在網路世界,電子財產之地理位置不是絕對的;2. 「電子通訊隱私法」第2703條a項所稱之搜索令並不是傳統上的搜索令,而是「搜索令」與「傳票」性質混合的命令,功能是為了讓網路服務業者(Internet Service Provider, “ISP”)提供所擁有的資料給法院;3.國會應無意透過繁瑣的「司法互助協定」來取得位於海外的電子證據;據此,地方法院維持Francis裁決法官的裁決,並且判定微軟藐視法庭。 微軟隨後在2014年12月,以地方法院使用了錯誤的法律理由、沒有根據的推斷立法目的、疏漏重要判決先例的援引、逾越國會立法的優先權並且誤解了「網路流通」的概念等理由,向美國第二巡迴法院提出上訴。 目前蘋果、AT&T、思科、Verizon以及其他科技公司都支持微軟的上訴,認為如果認可美國政府對於本國公司在境外所設置的資訊主機有司法管轄權,將會嚴重衝擊美國以外國家的資料保護法。此案目前仍在法院審理中。
歐盟法院被遺忘權2017年最新判決:Camera di Commercio di Lecce v. Manni案歐盟法院在2017年3月9日針對其於同日所公布的判決發布新聞稿,指出該院認定公司資料登記中的個人資料於此案中並無被遺忘權之適用。 該案件起源於2007年義大利的Manni先生對雷契商業登記處(Lecce Chamber of Commerce)所提之爭訟。在由雷契法院(Tribunal di Lecce)受理的案件中,Manni先生主張其所承接觀光性建案乃因商業登記處之資料清楚顯示其於1992年間擔任負責人的公司倒閉之影響而無法成交。 在一審判決中,雷契地方法院命雷契商業登記處將Manni先生與其之前所任職公司後來進入清算程序之聯結匿名化,並應對其為損害賠償。嗣後,雷契商業登記處向義大利最高法院(Corte suprema di cassazione)提起上訴,該院則決定聲請歐盟法院的先訴裁定(preliminary uuling)程序。 歐盟法院的判決指出:公司登記資料的公開性質,乃基於確保公司間以及與第三人間之法律安定性,特別是對於有意願入股上市公司或股份有限公司的第三人之利益。考量本案所涉法律權利之範圍,以及這些權利限制資料存取的時間在會員國各有所異,歐盟法院認為本案所涉之事實並不足以正當化系爭資料近用之限制,但其亦不排除未來有不同的可能,但須個案判斷。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。