英國在2019年7月11日於《2019-2020年財務法案》(Finance Bill 2019-20)之中,提出「數位服務稅」(Digital Services Tax)草案。《2019-2020年財務法案》已於2019年7月22日獲得御准(Royal Assent),並於2020年4月1日開始向跨國數位服務業者課徵2%數位服務稅。英國數位服務稅的主管機關「稅務海關總署」(HM Revenue and Customs)指出:「數位服務稅並不會影響個人,課徵的對象為大型跨國數位服務業者,如搜尋引擎(Search Engine)、社交媒體服務(Social Media Service)、線上購物平台(Online Marketplace),包含在這些平台上營運的廣告。」英國課徵2%數位服務稅的對象為於全球營收超過5億英鎊,且2,500萬英鎊的營收來自英國用戶(UK User)的數位服務業者,其中,首次於英國營收達2,500萬英鎊者,可以免課徵一次。所謂英國用戶指的是慣居於英國之人(Normally Located in the UK),只要交易的其中一方為英國用戶,則整個交易收益視為應課徵數位服務稅之營收。營收計算方式涵蓋任何與平台營運相關的商業行為,所有來自於英國用戶的營收均會被列入計算,至於廣告收益則是以投放目標客群為英國用戶作為計算
因應全球化與數位化,七大工業國組織(G7)、二十國集團(G20)、經濟合作暨發展組織(OECD)相繼推出數位服務稅作為永續的策略。英國原先亦不存在數位服務稅相關法制,直至2019年7月11日才於《2019-2020年財務法案》提出,並開始徵詢公眾意見。英國政府期待透過數位服務稅的政策,讓稅務課徵更加公平、增進公共利益。目前,英國政府並沒有明定數位服務稅的落日條款,然而英國政府於政策報告書中說明,假設國際上有更完善的解決方案,即會停止數位服務稅的課徵。
本文為「經濟部產業技術司科技專案成果」
經部致力推動太陽能整體產業發展,六月下旬舉辦兩場產官學座談會後,將制訂太陽能產業推動政策,整合太陽能上中下游供應鏈。 矽材料嚴重缺乏是目前國內太陽能光電產業發展面臨最大的障礙,經濟部能源局初步決定雙管齊下,一方面規劃引進德國 SolMic 公司退休人員團隊之技術人員,協助國內廠商突破技術障礙;另一方面將藉由研發火法冶金純化技術,生產矽材料,目前該技術已由工研院投入研發階段,政府預計投入十億元,希望在二 ○○ 八年達到生產三百噸,至二 ○ 一 ○ 年成長至一千噸。能源局指出,矽材料的供應問題若解決,國內將可建立完整上下游的太陽能光電產業供應鏈,預計二 ○ 一 ○ 年的產業規模可達六百億以上。
梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」 此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。 目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。
英國身份證立法-我國之借鏡? 全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。