「國家科學技術發展計畫」為政府考量國家發展方向、社會需求情形以及區域均衡發展,而擬定之國家科學技術政策與推動科學技術研究發展之依據。依照《科學技術基本法》第10條之規定,國家科學技術發展計畫之訂定,應參酌中央研究院、科學技術研究部門、產業部門及相關社會團體之意見,並經全國科學技術會議討論後,由行政院核定。
全國科學技術會議每四年召開一次,最近一次會議為2013年的「第九次全國科技會議」,該次會議通過了民國102-105年的「國家科學技術發展計畫」,針對我國科技發展提出7項目標、27項策略及58項重要措施。7項目標包括:提升臺灣的學研地位、做好臺灣的智財布局、推動臺灣永續發展、銜接上游學研與下游產業、推動由上而下的科技計畫、提升臺灣科技產業創新動能、解決臺灣的科技人才危機等。
本文為「經濟部產業技術司科技專案成果」
美國芝加哥地方法院於2016年01月04日肯認關於美國雅虎公司(Yahoo Inc)因於2013年3月對美國行動服務斯普林特公司(Sprint Corp)用戶散發垃圾訊息的團體訴訟。本件原為2014年由原告Rachel Johnson提訴,芝加哥地方法院法官Manish Shah認定本件原告已經充分主張本件團體訴訟的共通性,往後所有在2013年被發送該等訊息的用戶,都能加入本件訴訟集團提訴。而根據法院的文書資料,未來將會有超過50萬的斯普林特公司用戶能加入本件訴訟。 原告主張雅虎的簡訊服務向其以及其他斯普林特用戶寄發垃圾訊息而違反1991制定的電信消費者保護法(The Telecom Consumers Protection Act of 1991)。該等簡訊服務會將發信者的線上即時訊息轉為簡訊寄送至受信者的行動電話,同時系統會自動加入預設的「歡迎」訊息。依照電信消費者保護法規定,禁止以自動系統向使用者發送未得同意的簡訊、傳真或是撥打電話,違反者每一行為將被求償500~1500美元。因此本件若主張成立,雅虎將面臨每則訊息最高1500美元的損害賠償。 雅虎雖然主張該等訊息並非電信消費者保護法所禁止的擾人、極端巨量的通信,僅為對接收者已經收到來自其他發送者訊息的提醒而已。同時雅虎也主張若肯認該等團體訴訟,將導致損害賠償數額與原告所受損害不相當,而引發後續訴訟。法院並不接受雅虎的主張。現階段雅虎對法院的決定拒絕評論。
歐盟將對微軟反托辣斯法進行聽證據報導指出,歐盟競爭委員會(European Union Competition Commission)安排將於六月初針對微軟視窗作業系統搭售的IE瀏覽器的行為進行口頭聽證。此項指控最初是在2007年12月由Opera Software ASA所提出。從今年一月起,數個主要瀏覽器大廠,如:分別開發出Firefox和Chrome的Mozilla及Google,都以第三方的身份參加本案。在數週前,一個包含Adobe、IMB和Oracle等競爭公司的商業團體也以第三方的身份取得參與六月份聽證的管道。當然,微軟亦可趁此機會來回應歐盟對其因搭售IE而扭曲瀏覽器競爭市場的指控。 另據報導指出,微軟在回應期限到期前所遞交的機密文件中有說明,歐盟若對微軟視窗作業系統制定規範,將會使Google在網際網路搜尋市場上,獲得更主導性的地位,這將不利於網際網路搜尋市場的競爭。微軟的主要理由是,Opear和Mozilla已和Google取得協議,Google搜尋引擎將成為該二公司瀏灠器的預設搜尋引擎,Google的瀏覽器Chrome自亦是如此。此外,如果顯示電腦使用者選擇何種瀏覽器的螢幕是由電腦製造商所製造,Google將可直接和這些製造商合作,使Google搜尋引擎成為預設搜尋引擎。微軟同時宣稱,要求將其他公司的瀏覽器附加於微軟視窗作業系統上會侵害其品牌權利,並使其負擔潛在的智慧財產責任。 此案經過聽證後,可能仍需要好幾年才會有結論。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。