法國國民議會於2019年7月11日通過《數位服務稅法》(Digital Services Tax Act),並於當月24日由總統簽署,翌日生效。《數位服務稅法》將對境外數位服務業者的數位服務營收(Digital Turnover)課徵3%稅金。所謂「數位服務業者」包含媒介服務業者(Intermediary Services)或在數位介面提供精準行銷服務(Targeted Advertising)者;而「數位服務營收」包含廣告營收、平台佣金、轉售個人資料之所得。 跨境電商影響傳統商業模式並衍生稅收課徵的難題,經濟合作暨發展組織(Organization of Economic Cooperation and Development, OECD)於2015年提出稅基侵蝕及利潤移轉方案(Base Erosion and Profit Shifting, BEPS),行動方案之一即是數位時代的稅徵議題(Tax Challenges Arising from Digitalisation),並於2019年10月9日亦向公眾徵詢數位稅之意見。而歐盟亦從2017年即開始研擬是否對於數位服務課稅,然而尚無共識。 法國率先提出《數位服務稅法》,被外界解讀為抗衡美國科技巨擘Google、Apple、Facebook、Amazon而設,取四巨擘的字首稱之GAFA稅(GAFA Tax)。對此,法國官方澄清,境外數位服務業巨頭比歐洲中小企業少付了14%稅金,對法國造成實質的負面影響。而受《數位服務稅法》影響的團體是在前一個會計年度,全球數位服務營收超過7500萬歐元或在法國數位服務營收超過250萬歐元的公司,受影響者估計超過30間,雖然也會影響Google等美國科技業巨擘,但並非針對性,亦非為對抗美國而設的專法。然而,法國《數位服務稅法》仍引起美國官方的反彈並啟動「301條款調查」(Section 301 Investigation),該調查報告指控法國的數位稅具貿易歧視之虞。美、法雙方代表於2020年1月28日就數位稅進行對話,美國承諾不會對法國進行關稅報復,法國表示對於數位稅的推行不會退讓。
吃的安心 基改農產品安全性測試系統上路自從1994年第一種基因改造(Genetically Modified , GM)農產品~番茄在美國上市後,越來越多的GM農產品進入了我們的生活,使得大家越來越注重食用的安全性。行政院農業委員會農業藥物毒物試驗所開發的基因改造農產品安全測試系統於11月正式上路,日後台灣自行研發的GM農產品上市前,可以送到藥毒所檢驗,以確定對人體無害。 國際間對於GM農產品安全性爭議主要有兩個層面:生物安全性(作為食品之安全性)與生態環境安全(對環境的衝擊評估)。整體而言,GM農產品的食用安全評估以過敏性測試最為重要,也就是針對轉殖的DNA基因,測試其外源表現物質(蛋白質)對人體的影響,換句話說:蛋白質是較容易讓人體產生過敏的來源。 藥毒所開發的過敏反應和安全性測試系統,其針對GM農產品的評估方法有三:序列比對(和已知過敏原比對)、消化穩定性(採用人工胃液和腸液分解測試)、動物實驗模式(讓大白鼠直接食用)。相信這套安全測試系統的上路,可讓民眾食用台灣自行研發的GM農產品較為安心。
美最高法院擬受理各州要求聯邦政府採訂定更為嚴格的環保標準以抑制全球暖化二氧化碳和其他類似的排放氣體被認為會提高地球大氣層的溫度,是全球溫度上升的元凶。二00三年以來,美國境內陸續有十二個州、多個城市和十幾個環保團體循法律途徑,針對聯邦環保局( Environmental Protection Agency, EPA )一直不願意對新車制定更嚴格的廢氣排放標準以降低溫室排放量,採取法律行動。 美國最高法院最近決定將重新考量,聯邦政府是否應依照部分州和市政府及環保團體要求,制定新車廢氣物排放標準,以對抗全球暖化的問題。本案首開先例,成為美國高等法院針對政府的環保法令進行裁決。 包括美國加州、麻州和紐約州等州政府在告訴中指出,其認為根據聯邦的「空氣清淨法」, EPA 有責任針對排放二氧化碳和其他三種氣體的車輛和大型工廠進行管制;然而, EPA 則堅持「空氣清淨法案」中並沒有規範到全球氣候變化的情狀,也沒有將二氧化碳定義為污染源,故聯邦政府認為應由相關單位和業者自行制定控制標準。 在提交最高法院的文件中,美國聯邦政府稱這項官司只是一種「猜測」,目前根本不清楚全球暖化是否和新車廢氣排放有關,也沒有任何證據可以證實,使用可使燃料燃燒更完全的車輛,是否會對氣候變化有重要的影響。美國政府認為,解決全球暖化現象的議題,可能透過國際努力更有效果。
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。