歐盟為了要加速新穎性食品之上市、促進食品科技之發展,並加強複製動物乳肉品、奈米食品或外來等新穎性食品之上市查驗,今(2008)年初歐盟執委會(Commission)即針對1997年新穎性食品規則(Regulation (EC) No 258/97 concerning novel foods and novel food ingredients)提出修正建議案,而現行規則最大爭議,則在於其未能涵蓋1997年以後才研發出的食品以及在歐盟未大量食用但在國外已廣泛食用等兩類食品。
新規則草案的修正重點,將放在:(1)排除已受其他專門法規管轄之食品,包含生技產品(即基因改造食品、GMO)、食品添加物、調味料、酵素、維他命與礦物質(類似我國健康食品、保健食品)等。(2)建立單一、簡化的中央查驗制度(centralised authorisation system),由歐盟食品安全署(EFSA)進行安全評估後由執委會發布許可。(3)明定適用範圍包含運用非傳統育種技術所得之植物來源食品(food of plant or animal origin when to the plant and animal is applied a non-traditional breeding technique not used before 15 May 1997),亦即含複製動物食品,以及運用新生產製程所得之食品(food to which is applied a new production process, not used before 15 May 1997),即涵蓋運用奈米科技所製造奈米食品。此外,新規則亦提供研發新科學證據及資料並申請獲准的公司,享有5年的資料專屬保護(data protection,即data exclusivity),用以促食品及食品生產技術之研發。
本文為「經濟部產業技術司科技專案成果」
經濟部、金管會刻正規畫將企業員工分紅改列費用,並預計自九十六年度實施,以與國際會計處理原則接軌,預料將對高科技業將造成相當之衝擊。 國際會計準則都是將分紅列為費用計算,唯獨台灣是用盈餘在分配員工分紅,為與國際會計準則接軌,將分紅列入費用應是未來趨勢,可讓財報更加透明化,新今年 4 月 28 日 立法院修正通過的商業會計法第 64 條規定,公司企業應將員工分配盈餘在財報上改列為費用,以公平市價作為計算基準,並將另採行政命令或解釋令公布入帳方式。 不過員工分紅若以市價列入費用,公司帳上賺的錢就會減少,尤其是高價股、高配股的公司影響尤甚;另一方面,新規定亦可能使這些公司趕採股票選擇權,以或提高底薪、現金分紅等方式來降低衝擊,否則若是獲利都被「員工配股」稀釋光了,財報會非常難看。因此,高科技業者則希望主管機關能放寬買回庫藏股分配員工及員工認股權證規定,以降低衝擊。
聯合國人權高級專員辦公室發布《數位時代隱私權》調查報告聯合國人權高級專員辦公室(Office of the United Nations High Commissioner for Human Rights, OHCHR)於2021年9月15日發布《數位時代隱私權》(The Right to Privacy in The Digital Age)調查報告,分析各種人工智慧技術,例如側寫(profiling)、自動化決策及機器學習,將如何影響人民之隱私或其他權利,包括健康權、教育權、行動自由、言論自由或集會結社自由等,並提出對國家與企業應如何因應之具體建議。 一、針對國家與企業使用人工智慧之共同建議:在整個人工智慧系統生命週期中,包括設計、開發、部署、銷售、取得(obtain)或運營,應定期進行全面的人權影響評估(comprehensive human rights impact assessments),提高系統使用透明度與可解釋性,並應充分通知公眾與受影響之個人其正在使用人工智慧進行決策。 二、針對國家使用人工智慧之建議:應確保所有人工智慧的使用符合人權,明確禁止並停止販售不符合國際人權法運作之人工智慧應用程序。在證明使用該人工智慧系統能遵守隱私及資料保護標準,且不存在重大準確性問題及產生歧視影響之前,應暫停在公共場所使用遠端生物識別技術。並盡速立法及建立監管框架,以充分預防和減輕使用人工智慧可能造成不利人權的影響,以及確保在侵犯人權時能夠有相關之補救措施。 三、針對企業使用人工智慧之建議:應盡力履行維護人權之責任,建議實施商業與人權指導原則(Guiding Principles on Business and Human Rights),並打擊(combat)人工智慧系統開發、銷售或運營相關的歧視,進行系統評估與監測,以及設計有效的申訴機制。
NIH公布最新GWAS基因型與表現型數據資料庫分享近用方針經過了一整年向各界諮詢與彙整各方意見後,美國國家衛生研究院(NIH)於今年8月底,公布其所資助之GWAS基因型與表現型數據資料庫(genotype-phenotype datasets)之分享近用方針。此方針希望在保障研究參與者的個人隱私前提下,協助科學研究社群取得相關基因數據資料。GWAS數據資料對科學有顯著的幫助,並具有龐大的潛在公共利益,然而,提供個人的基因型與表現型資料進行科學研究,涉及個人隱私與秘密之保護,故具有高度的敏感性而受到大眾關切。 因此,NIH在訂定這項方針時,為了搜集各方意見,首先於去年5月,宣布計畫更新GWAS的數據資料分享政策,後於去年8月公開徵詢大眾對方針之意見,次又依據所蒐集之各方意見,於去年12月針對此分享政策舉辦會議進行討論,根據這些討論所形成之共識,併同NIH內部討論之結果,最後形成此項分享政策。 方針中指出,如何在促進科學研究之目的,與保護相關參與人的權利間取得平衡,是相當重要的議題,故本方針分別對研究人員近用之程序、基因數據資料的處理與參與者權利之保護進行詳細規範。舉例來說,本方針要求欲近用資料庫的研究人員,提供其研究必須使用此資料庫的書面說明資料;另外也會對所有存放在資料庫的數據資料進行去個人化處理,使該項資訊無法再以技術判別,並使用隨機方法加密,以確保參與者的隱私與保密資料不遭外洩。根據NIH表示,此方針雖然僅是對GWAS數據資料庫的近用作規範,但未來亦有意將其作為近用其他類似資料庫的規範參考架構。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。