為了改善下一世代的健康,資料來源係來自於半數英國人口的英國人類基因資料庫於今年三月底正式開放給所有研究者使用。該資料庫資訊包含二萬六千筆糖尿病患者、五萬筆關節疾病患者、四萬一千筆不飲酒者,以及一萬一千筆心臟病患者的健康資訊。 英國人體基因資料庫係利用四年的時間招募來自蘇格蘭、英格蘭與威爾斯地區,年紀介於四十到六十九歲的自願捐贈者,就其採集檢體、身高、體重、體脂肪、手握力、骨頭密度、心肺功能、血壓、醫療病例、生活習慣、記憶、飲食、生理與心理情狀、聽力與視力等資訊所集結的健康資料庫,其可堪稱是世界上積累大規模人類健康資訊的來源之一。 欲使用英國人體基因資料庫的申請者,不論其係來自英國或是海外,亦不論申請者係來自學界、產業界、公益團體,或是由政府資助的研究機關(機構)、團體或個人,在本於欲從事的研究係基於健康相關與確保公眾利益的前提之下,均可向該資料庫的管理單位提出使用申請。該申請必須於網路上提出,且欲申請使用之研究必須受到英國人類基因資料庫小組的嚴謹審查,且該審查過程亦會受到英國人體基因資料庫委員會轄下的 Access Sub-Committee所監督。除此之外,具有獨立超然特徵的英國人類基因資料庫倫理與管理會議(UK Biobank Ethics and Governance Council)亦將會監督整個審查系統的運作和流程。 英國人類基因資料庫將允許研究者,在基於保障公眾利益的前提下所進行的健康相關研究,來使用該資料庫內的所有資源。該資料庫期許研究者能夠發現特殊疾病發生於人類個體上的差異性,以進而研發出一套新的治療與防範措施。除此之外,該資料庫的資源利用亦期待研究者能在具有慢性、疼痛與生命威脅性特徵的疾病上,例如癌症、心臟疾病、中風、糖尿病、老人痴呆、憂鬱症、關節炎、眼睛、骨頭和肌肉等疾病,能夠就其發生原因、預防方法與治療方式找出新的診斷和解決方法。
歐盟通過反脅迫規則,將針對他國的經濟脅迫手段採取反制措施歐盟理事會(European Council)表示已與歐盟執委會(European Commission,以下簡稱「執委會」)、議會(European Parliament)於2023年11月22日完成《保護歐盟及其成員國免受第三國經濟脅迫規則》(Regulation on the protection of the Union and its Member States from economic coercion by third countries,以下簡稱「反脅迫規則」)之立法流程,並將於2023年12月27日正式施行生效。 該法起源於中國大陸於2021年為抗議立陶宛(Lithuania)同意我國政府以「臺灣」名義在其首都維爾紐斯(Vilnius)設立代表處,停止輸入多項產品,導致立陶宛對中貿易額大幅降低。歐盟為避免特定國家持續利用此種經濟脅迫手段影響歐盟交易市場與會員國之主權,決定立法採行反制措施,並於2021年之貿易政策回顧(2021 Trade Policy Review)公布《反脅迫規則》之立法框架。 根據《反脅迫規則》,執委會得根據會員國、歐盟議會及其他經濟聯盟所提供之資訊進行職權(ex officio)調查;亦可依照受脅迫之會員國或企業的請求進行調查。在調查階段,執委會會在4個月內判斷特定國家之行為是否確實造成經濟脅迫,若確實存在,將進一步評估其對歐盟帶來之影響。調查完成後,若他國政府確實對歐盟成員國或企業實施經濟脅迫手段,執委會將提交報告與理事會進行決議,通過後,執委會將先採行不干涉措施(non-interventionist measures),與實施經濟脅迫手段之國家進行協商,並要求賠償因經濟脅迫而產生的損害。若採行不干涉措施後仍無改善,執委會得考慮採行干涉措施(interventionist measures),包含但不限於限制特定企業進入歐盟市場與投標政府採購案;終止對特定國家的關稅優惠,並課予額外之關稅等,以阻止該特定國家繼續干擾歐盟經濟體。
網路拍賣之法制趨勢 美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。