韓國科學技術評估暨規劃研究院(Korea Institute of S&T Evaluation and Planning, KISTEP)於2023年5月3日發布〈強化企業創新活動之研發租稅優惠政策研究:以國家戰略技術研發企業為中心〉(A Study on R&D Tax Support Policy for Enhancing Corporate Innovation Activities:Focusing on National Strategic Technology R&D Firms,下稱本報告),提供政府擴大研發租稅優惠政策之建議,分述如下:
(1)擴大適用稅額抵減之技術領域
為強化競爭力,各國陸續鎖定重要技術產業,擴大研發租稅優惠政策,故本報告建議韓國政府就稅額抵減範圍,從3大領域(半導體、蓄電池與疫苗),擴大至12大國家戰略技術領域,進而增加民間企業之研發補助。
(2)擴大適用研發稅額抵減之對象
由於韓國目前適用研發稅額抵減之對象,不包括負責研發之新創企業負責人及管理階層,故本報告建議韓國應考量稅額抵減制度之效果與制度公平性,擬定一套新方案,擴大可享受稅額抵減優惠的對象。
(3)調高中大型企業之稅額抵減率
本報告指出,激進式創新及專利被引證次數高的創新技術研發,大多由中堅企業及大企業所主導,故建議應研擬一套以中堅企業與大企業為對象,大幅調高可抵減稅額比率之方案。
(4)透過政策組合(Policy mix)以提高政策效益
本報告指出,當企業獲得研發補助時,其研發稅額抵減效果更為顯著,故建議政府研擬以企業為對象,採用研發稅額抵減與補助並行之優惠方式。
(5)集中對技術水準高的企業提供租稅優惠
本報告指出,研發稅額抵減效果侷限於技術水準高的企業。換言之,與將租稅優惠分散給予各企業,不如選定具有技術能力的企業,使其獲得更多的研發稅額抵減優惠。
(6)擴大開放式創新企業之租稅優惠
本報告指出,研發租稅優惠效果對執行開放式創新之企業更為顯著,故建議將執行「產–研」、「產–學」、「產–產」合作的開放式創新企業納入租稅優惠對象。
本文為「經濟部產業技術司科技專案成果」
近來美國運輸安全管理局(Transportation Security Administration, TSA)修訂隱私衝擊評估(Privacy Impact Assessment, PIA) 規章,規定機場安全檢查於必要時,可以針對某些特殊旅客強制進行AIT掃描。 美國運輸安全管理局根據航空運輸安全法(Aviation and Transportation Security Act, ATSA) 負責運輸之安全、評估威脅及強制執行安全相關的規定和要求,並且確保機場等交通設備是否有充足的安全措施。 由於國際恐怖攻擊行動頻傳,美國運輸安全管理局於2013年開始採行AIT掃描技術以強化旅客通關之安全檢查,並將會顯示出近乎裸照的3D透視影像全身掃描機器(body scanning machines)淘汰。 所謂的AIT(Advanced Imaging Technology)掃描技術,即係高階圖像技術,可偵測旅客是否有攜帶危險性、威脅性物品,它所顯示出來的影像僅係一個大致輪廓,如有違禁品則會在該部位產生色塊,警告安檢人員應採行進一步檢查措施。 一般而言,雖然旅客可拒絕AIT掃描,選擇讓海關人員進行身體檢查,但是為確保運輸安全,近來運輸安全管理局更新隱私衝擊評估(Privacy Impact Assessment, PIA) 規章,規定於必要時可以針對某些特殊旅客強制進行AIT掃描,旅客不再有拒絕之權利。 此一政策施行,勢必遭受侵害「隱私權」之質疑,運輸安全局表示,AIT掃描係採用「自動目標辨識」 (Automatic Target Recognition , ATR) 軟體,亦即非直接顯示個人影像,僅顯示特殊物體在一般影像上的所在位置,發出警訊後再由安檢人員進行詳細檢查。現今AIT掃描技術已提升,掃描出的人體圖像會被模糊處理,且掃描後機器不會儲存任何可識別個人之資訊,更加確保旅客的隱私權不受侵害。
英國無線電頻譜管理改革政策(上)-政策源起與目標 日本《第6期科學技術基本計畫方向》建言日本《科學技術基本計畫》為依據其科學技術基本法之要求,以每5年為期擬定,目的在於建構一立基於長期性觀點且體系化的科學技術政策,並以之為施政框架,目前實施之科學技術基本計畫,為規劃自2016年至2020年期間施行之第5期科學技術基本計畫。而為形成下一階段之科學技術基本計畫,日本學術會議現公布了「第6期科學技術基本計畫方向」建言,為日本學術會議所屬之學者委員會學術體制分科會經審議後,就上述科學技術基本計畫之擬定發表意見,預計會於內閣府召開之綜合科學技術與創新會議(総合科学技術・イノベーション会議)中提出,作為訂定第6期科學技術基本計畫之重要參考。 本建言除了持續強調投資基礎科學研究的重要性,亦關注學術多元發展與提升整合性,強調優越學術基礎的建構、發展、以及用以解決問題之能力提升,繫諸各領域、地區、個人所關切議題與思考方式之不同所帶出的多元性,而為克服現代社會面臨的各種課題,應注重自然科學與人文社會科學之跨域合作以形成具統合性的知識基礎,同時須平衡投入各學門的研究預算,避免科學技術投資過分集中於特定的學術領域。具體的方向上,本建言主要提供了4個規劃面向:(1)強化對博士生就學的經濟上支援,並增加相關就業機會,如增加大學終身教職員額與高階技術人才職位等;(2)為進一步促成前述的學術多元發展,重新檢討並建構政府資助各類研究之制度藍圖,除了持續資助基礎研究及應用研究之外,強化對年輕學者的補助,亦期待能對需持續性進行之研究(如生命科學等需長時間蒐集並保存資料之領域)提供長期或無限期的支援;(3)追求科研參與者的多元化(如鼓勵女性、外國人、身障者的投入),以實現科學家社群之多元發展;(4)促成科學家社群以個人身分或透過組織參與科學技術政策形成,避免相關政策的擬定與施行未能切合研究實務之需求。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。