主管英國生殖醫療及胚胎研究事務的人工授精暨胚胎管理局(The Human Fertilisation and Embryology Authority, HFEA)在考量過包括對捐贈婦女的風險以及公眾意見的諮詢後,於今(2007)年2月21日正式對外宣佈一項關於研究用途卵子捐贈的方案,當中提出有力的安全措施確保婦女在捐贈過程中會被正確的告知其風險,並強制地獲得適當的保障。管理局許可婦女捐贈其卵子以供研究之用,包括利他的卵子捐贈,以及接受試管受精醫療後所剩餘的卵子捐贈,而這是英國政府首度許可非接受生殖醫療的婦女可以為提供研究之用進行卵子捐贈。
HEFA強調研究用途卵子捐贈在程序上將有更明確的安全措施。這些安全措施包括清楚的區分研究人員及施行該婦女醫療的人員、關於實際上研究後果的詳細資訊、捐贈將產生的影響,以及要求獲得捐贈婦女在不受研究團隊干擾下的同意。這些安全措施將可有效避免女性捐贈者在被脅迫、被詐欺或是被誤導下做出捐贈卵子的決定。同時,婦女亦不能藉由捐贈卵子而獲得報酬,捐贈者只能要求一筆因捐贈所實際產生費用的補償(250英鎊,約16000元新台幣)。
雖然HEFA認為研究用途捐贈卵子的婦女將得到管制部門嚴密而強力的保障,並且不預見在這個特殊的研究領域會有魯莽的應用,但是部分專家對此並不贊同。位於英國倫敦的國王學院幹細胞研究學者Stephen Minger博士即認為目前使用人類卵子進行的研究工作仍未成熟,這項過早提出的方案會鼓勵婦女去提供她們的卵子來進行研究,而鼓勵這種情況的發生仍是太早了。
本文為「經濟部產業技術司科技專案成果」
英國創新科技部(Department for Science, Innovation and Technology,下稱創新科技部)2025年6月7日發布消息,英國政府正在建立第一個國家數位交易所(National Digital Exchange, NDX),並預計於2026年試行,數位交易所可協助英國各政府機關可以更快速且容易地購買合適的數位工具,並期望每年節省12億英鎊(約等於新臺幣481億元)的政府支出,並賦予公務員(使用者)可對供應商進行評分。 2025年1月25日英國政府公布「數位政府現狀審查(State of digital government review)」報告,英國政府2023年於數位技術支出超過260億英鎊(約等於新台幣10,435億元),英國有數百萬人民仰賴政府機關、醫院、學校及相關機構所提供的數位服務,另報告中指出英國二級醫療機構及地方議會仍各自辦理雲端服務、網路與設備採購,因此採購時各機關錯失了與供應商議價的能力,此外僅有28%的公部門主管表示,其所在的部門有能力追蹤並確保供應商提供的技術及服務符合其價值。 國家數位交易所係由創新科技部進行審核與管理,需求機關可自國家數位交易所購買所需之數位工具,上架之數位工具除經創新科技部審核外,亦由該部會與供應商進行全國統一的價格協商,採購方可根據其實際需求透過人工智慧與供應商進行配對,藉由國家數位交易所採購數位工具,相較於需求機關自行辦理採購流程花費數月時間,可減少至幾小時,此外國家數位交易所目標於3年內將參與政府採購的中小型企業比例提升至40%。 我國數位發展部及經濟部現行亦有針對軟體、資訊服務及數位新創產品或服務辦理共同供應契約,供全國公務機關參與訂購,除可節省我國政府機關自行辦理採購案所花費時間及人力,透過複數決標的採購方式,單一產品可以有較多的供應商供機關選擇,同時提升供應商的曝光機會,以促進我國資訊產業發展。英國新設立之國家數位交易所後續制度及未來運作方向,值得持續追蹤。
Facebook因掃描用戶訊息而面臨訴訟2013年,Facebook用戶Matthew Campbell指控Facebook違反聯邦電子通訊隱私法及加州法律,並提出集體訴訟,要求Facebook必須支付每位受侵害的用戶最高一萬美元的賠償。原因是Facebook掃瞄用戶之私人對話內容中的網站連結,並計入網站的按「讚」總數,再將這些「讚」彙整入用戶的個人檔案後對用戶進行行為分析,最後針對該用戶的行為模式發送客製化的廣告, 造成用戶的困擾。 對此,Facebook辯稱其掃描用戶的訊息是很普遍的商業行為,因此屬於聯邦電子通訊隱私法例外條款的範疇,而且Facebook在2012年即已停止傳送客製化廣告,故Facebook要求撤銷此訴訟。 然而,2014年12月23日,美國加州奧克蘭地方法官 Phyllis Hamilton認為,雖然Facebook已經在2012年10月停止傳送客製化廣告,但Facebook同時並承認仍會持續分析用戶之訊息(理由是為了防止電腦病毒以及垃圾郵件),而且Facebook不願意提供任何有關目標式廣告手法的細節,使法院無法判斷這是否為普遍的商業行為而屬於聯邦電子通訊隱私法例外條款的範疇,因此,法院裁定駁回Facebook的撤銷申請,本案將繼續進行審理程序。
美國衛生及公共服務部提出策略草案,以緩解健康資訊科技對醫護人員所造成的負擔美國衛生及公共服務部(U.S. Department of Health and Human Services, HHS)依21世紀醫療法(21st Century Cures Act)於2018年11月28日公布由國家健康資訊技術協調辦公室(Office of the National Coordinator for Health Information Technology, ONC)與美國聯邦醫療保險和補助服務中心(Centers for Medicare & Medicaid Services, CMS)共同起草的「減輕使用健康資訊科技及電子健康紀錄所造成的管制與行政負擔之策略(Strategy on Reducing Regulatory and Administrative Burden Relating to the Use of Health IT and EHRs)」草案,以緩解健康資訊科技(Health Information Technology)於臨床使用的負擔。 雖然資通訊科技的進步促進許多產業的發展,卻在醫療產業造成應用上的問題,如臨床醫師會花費更多的時間、人力成本於登載電子健康紀錄,而壓縮與患者溝通的時間。為改善這些問題,此草案針對臨床紀錄建檔(Clinical Documentation)、健康資訊科技的可用性與使用者經驗(Health IT Usability and the User Experience)、電子健康紀錄報告(EHR Reporting)、及公共衛生報告(Public Health Reporting)四大議題提出相對應的策略及建議採用的措施。並以三個主要方向為討論主軸:降低臨床醫師紀錄患者健康資訊所耗費的人力時間成本、降低臨床醫師、醫院與健康照護機構(health care organizations)為達到報告規範標準而耗費的人力時間成本、及促進電子健康紀錄在使用上的功能性與直覺性(functionality and intuitiveness),以期能促進醫病溝通,並進一步完善健康照護環境。此草案在2019年1月28日前開放公眾提出建議,並預計於2019年年底公布最終版本。
美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。 該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。 當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。 針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。 其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。 最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。