在近來國際食安問題事件頻傳的氛圍下,如何透過食品供應鏈相關資料的紀錄、串接與分析,達到食品追溯(Food Traceability)目的已成為全球性議題。有鑑於此,美國的全球食品追溯中心(Global Food Traceability Center, GFTC)在跨種類的食品供應鏈中針對數位資料的採集和追蹤,以建立共通架構為目的,提出食品追溯的「關鍵追蹤活動」以及「重點資料元素」,作為監管機構和產業界在建立追溯系統時可依循的標準。
由於現今食品供應系統涉及範圍大部分已擴及全球,其複雜性大幅提升了各國政府對整個食品產業的監管以及促進追溯實踐的困難度。隸屬美國食品科技研究所(IFT)的GFTC於2014年8月19日發表了一篇「食品追溯最佳實踐指南」(A Guidance Document on the Best Practices in Food Traceability)報告,指出當食品相關疫情爆發時進行食品追溯即有全球性的需求;該指南主要以食品安全及追溯相關規範的立法者和食品產業界為對象,針對六大類食品產業-烘焙、奶製品、肉類及家禽、加工食品、農產品和海產類提供一個可茲遵循的追蹤架構。在一條食品供應鏈中,有許多環節是進行追蹤時必要的資訊採集重點,被視為「關鍵追蹤活動」(Critical tracking events, CTEs),而各種「關鍵追蹤活動」的紀錄項目即為「重點資料元素」(Key data elements, KDEs)。
根據該指南所定義的CTEs包含:
1.運輸活動(Transportation events)-食品的外部追蹤,包括「運送活動」(Shipping CTE)和「接收活動」(Receiving CTE),指食品在供應鏈的點跟點之間藉由空運、陸運或船運等物理性的移動。
2.轉換活動(Transformation events)-食品的內部追蹤,連結食品經過各種結合、烹煮、包裝等加工的輸入到輸出過程,包括「轉換輸入活動」(Transformation Input CTE)和「轉換輸出活動」(Transformation Output CTE)。
3.消耗活動(Depletion events)-係將食品從供應鏈上去除的活動。其中,「消費活動」(Consumption CTE),指食品呈現可供顧客消費狀態的活動,例如把新鮮農產品放在零售店供顧客選購;「最終處置活動」(Disposal CTE)指將食品毀棄、無法再作為其他食品的成分或無法再供消費的活動。
而紀錄上述CTEs的KDEs例如各項活動的擁有人、交易對象、日期時間、地點、產品、品質等,應將該指南所列出之各項KDEs理解為紀錄CTEs的最基本項目。目前最大的問題是食品監管的要求和產業界執行可行性間的差距,故如何縮小此差距仍為各國政府當前最大的挑戰。
2022年2月14日,美國著作權局(US Copyright Office)所屬之著作權審查委員會(Copyright Review Board),做出一件人工智慧(AI)創作作品不得申請著作權登記之決定,並聲明人類作者是著作權保護的必要前提。 本案申請人Stephen Thaler在2018年首次嘗試為AI「Creativity Machine」創作的藝術作品申請著作權登記,Stephen將Creativity Machine列為作者,並聲明其因擁有該AI而得透過美國著作權法第201條(b)項的受雇著作原則(work for hire)取得前述作品之所有權,且得為此作品申請著作權登記。然而,Stephen提出的申請沒有成功,著作權局認為依著作權法及相關判例,非出自於人類所作之作品不應受著作權保障,而本案AI之創作作品亦無人類的創意性投入或干預。在Stephen提出兩次複審後,著作權審查委員會在2022年做出機關最終決定,除重申僅人類之作品得受著作權保障以外,更進一步表示無權利能力的AI無法簽訂契約,故無受雇著作原則適用之可能。此外,著作權審查委員會亦指出受雇著作原則亦僅能表彰作品的所有權,並非作品是否得以受著作權保障之指標。 Stephen Thaler長年來不斷為AI之創作品爭取法律保護,除上述著作權外,其亦將名為DABUS的AI列為專利發明人,並以此就DABUS之發明在多個國家申請專利,而澳洲聯邦法院在2021年7月做出全球首個認為AI可作為專利發明人的判決。
歐盟提出人工智慧法律框架草案歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。
美國白宮呼籲採取行動,打擊利用AI生成影像進行之性虐待行為美國白宮於2024年5月23日公開呼籲採取行動以打擊利用AI生成性影像,及未經當事人同意傳播真實影像的性虐待行為。此次呼籲源自白宮「解決線上騷擾與虐待問題工作小組」(Task Force to Address Online Harassment and Abuse)相關行動、總統第14110號行政命令-「安全、可靠且可信任之AI開發及利用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),以及尖端AI公司自願管理AI風險之承諾(Voluntary AI Commitments)。 白宮指出,迄今為止生成式AI已淪為性虐待的主要工具,同時,涉及未經同意散布或威脅散布私人性影像,亦將對受害者造成嚴重的心理傷害。白宮呼籲相關利害關係人透過自願性承諾,預防與減輕性虐待影像之影響,如: (1)阻止性虐待影像獲利: 對於從事性虐待影像業務的網站或應用程式,支付平臺與金融機構可限制或拒絕對其提供支付服務。 (2)停止創建深偽性虐待影像 : 對於可透過AI生成性影像之網路服務或應用程式,雲端服務供應商與應用程式商店得減少此類網路服務或應用程式運作。此外,應用程式商店可要求應用程式開發人員採取措施,防止使用者製作非經當事人同意的AI生成性影像。 (3)防止散播性虐待影像: 應用程式與作業系統開發人員可啟用技術保護措施,以保護數位裝置上儲存之內容,防止未經當事人同意分享其影像。 (4)支援並參與為受害者提供有效補救措施之服務: 平臺與利害關係人可選擇與相關組織合作,使性虐待影像受害者可輕鬆且安全地從線上平臺中刪除未經同意之內容。此外,白宮亦呼籲國會修訂於2022年重新授權之「婦女暴力防制法」(Violence Against Women Act Reauthorization),延續並加強原有法律保護效力,同時為AI生成之性虐待影像的受害者提供關鍵援助資源。
何謂「國家科學技術發展計畫」?「國家科學技術發展計畫」為政府考量國家發展方向、社會需求情形以及區域均衡發展,而擬定之國家科學技術政策與推動科學技術研究發展之依據。依照《科學技術基本法》第10條之規定,國家科學技術發展計畫之訂定,應參酌中央研究院、科學技術研究部門、產業部門及相關社會團體之意見,並經全國科學技術會議討論後,由行政院核定。 全國科學技術會議每四年召開一次,最近一次會議為2013年的「第九次全國科技會議」,該次會議通過了民國102-105年的「國家科學技術發展計畫」,針對我國科技發展提出7項目標、27項策略及58項重要措施。7項目標包括:提升臺灣的學研地位、做好臺灣的智財布局、推動臺灣永續發展、銜接上游學研與下游產業、推動由上而下的科技計畫、提升臺灣科技產業創新動能、解決臺灣的科技人才危機等。