RFID應用發展與相關法制座談會紀實

刊登期別
2004年11月
 

※ RFID應用發展與相關法制座談會紀實, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=777&no=64&tp=1 (最後瀏覽日:2026/03/11)
引註此篇文章
你可能還會想看
日本《科技創新成果活用法》

  為推動研發制度的改革並強化研發能力及效率,日本於2018年12月14日通過法律修正案,將原《研發力強化法》(研究開発システムの改革の推進等による研究開発能力の強化及び研究開発等の効率的推進等に関する法律)更名為《科技創新成果活用法》(科学技術・イノベーション創出の活性化に関する法律),透過調整大學、國立研究開發法人(以下簡稱研發法人)的研究人員僱用制度、國家或人民安全相關研發預算的確保,以及研發法人投資科技研發成果之運用等相關制度的調整,以支持未來日本在科技創新研發能力的提升,以及研發成果的有效運用。   本次修法最大的重點,為研發法人投資研發成果運用的明文化,過去在《研發力強化法》中,僅規定研發法人得進行有助於成果運用的出資或技術協助等業務(第43條之2),但對於是否能保有因出資或技術協助所取得之收入(例如股票),則由各研發法人以其設置法另為規範;本次修正之《科技創新成果活用法》,則於第34條之5明文規定研發法人不受獨立行政法人不得持有股票的限制,可持有其運用研發成果進行技術作價投資或成立新創,所取得之股票或新股認股權,確立研發法人在支持研發成果運用上的功能與角色。

日本垃圾電郵法制2005年修正動態

歐洲創新計分板(European Innovation Scoreboard)

  歐洲創新計分板(European Innovation Scoreboard, EIS)為針對歐盟成員國以及其他歐洲國家的研究與創新績效、創新體系等進行的評比報告,由歐盟執委會(European Commission, EC)每年發布,協助了解各國創新力態樣與市場競爭優勢。   EIS以綜合創新指數(Summary Innovation Index)作為整體評估標準,區分為四大類指標、10個創新構面,並細分為27個評估子標。四大類指標及相關架構如下: 創新環境指標:其中包含3種創新構面分別為人力資源、國家研究系統和友善投資環境; 投資指標:包含財務支援與企業投資創新構面; 新創活動指標:其創新構面包含創新者、連結度(linkage)和智財; 影響力指標:囊括就業影響力和銷售市場影響力兩種構面。   2019年6月發布歐洲創新計分板報告,歐盟創新發展連續四年均有進步。報告將歐盟會員國創新表現分為四組,分別為:1.創新領導者:包含丹麥、芬蘭、挪威等國;2. 優秀創新者:包含奧地利、比利時、德國等;3.中等創新者:包含希臘、匈牙利、義大利等;最後一組4.適度創新者(Modest Innovators):包含羅馬尼亞及保加利亞等。該報告亦個別在特定領域上進行排名,例如在創新研究體系領域,盧森堡和丹麥表現最好,友善創新環境則以丹麥及芬蘭為最優,企業投資由德國和芬蘭領先,智財領域應用上則以中等創新組的馬爾他居冠。

歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用

  歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。   「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。   「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。   在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。   而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。   在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。

TOP