2025年5月2日,聯邦司法會議證據規則諮詢委員會(Judicial Conference’s Advisory Committee on Evidence Rules)以8比1投票結果通過一項提案,擬修正《聯邦證據規則》(Federal Rules of Evidence,FRE),釐清人工智慧(AI)生成內容於訴訟程序中之證據能力,以因應生成式AI技術在法律實務應用上日益普遍的趨勢。 由於現行《聯邦證據規則》僅於第702條中針對人類專家證人所提供的證據設有相關規定,對於AI生成內容的證據能力尚無明確規範,所以為了因應AI技術發展帶來的新興挑戰,《聯邦證據規則》修正草案(下稱「修正草案」)擬新增第707條「機器生成證據」(Machine-Generated Evidence),並擴張第901條「驗證或識別證據」(Authenticating or Identifying Evidence)的適用範圍。 本次增訂第707條,針對AI生成內容作為證據時,明確其可靠性評估標準,以避免出現分析錯誤、不準確、偏見或缺乏可解釋性(Explainability)等問題,進而強化法院審理時的證據審查基礎。本條規定,AI生成內容作為證據必須符合以下條件: 1. 該AI生成內容對於事實之認定具有實質助益; 2. AI系統於產出該內容時,係以充分且適當之事實或資料為輸入依據; 3. 該輸出結果能忠實反映其所依據之原理與方法,並證明此一應用於特定情境中具有可靠性。 本修正草案此次新增「AI生成內容」也必須合乎既有的證據驗證要件。原第901條a項原規定:「為符合證據之驗證或識別要求,提出證據者必須提供足以支持該證據確係其所聲稱之內容的佐證資料。」而修正草案擬於第901條b項新增「AI生成內容」一類,意即明文要求提出AI生成內容作為證據者,須提出足夠證據,以證明該內容具有真實性與可信度,方符合第901條a項驗證要件。 隨著AI於美國法院審理程序中的應用日益廣泛,如何在引入生成式AI的同時,於司法創新與證據可靠性之間取得平衡,將成為未來美國司法實務及法制發展中的重要課題,值得我國審慎觀察並參酌因應,作為制度調整與政策設計的參考。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
歐盟執委會通過下世代接取網路管制建議歐盟在今年5月19日公布的數位議程(Digital Agenda)中,設定了多項寬頻建設目標,包括所有歐洲民眾於2013年均能擁有基本寬頻, 2020年擁有30Mbps以上的高速寬頻,與50%以上的歐盟家戶擁有100Mbps以上的超高速寬頻。為達成此項目標,歐盟執委會於今年9月20日提出了採納下世代網路管制建議(Commission Recommendation on regulated access to Next Generation Access Networks(NGA))、提出未來五年的無線電頻譜政策計畫,與鼓勵公、私部門進行寬頻網路投資等三項主要推動措施。 在NGA管制建議正式公布前,執委會曾於2008年與2009年兩度就建議草案進行公開資詢。執委會認為,此一建議除了可提升管制明確性,避免管制假期(regulatory holidays)外,並在鼓勵投資與維護競爭間取得適當平衡,其重要管制原則如下: 1. 管制者對於獨占業者之光纖網路接取進行成本訂價管制時,應藉由風險溢價(risk premium)充分反應投資風險,使投資者能獲取具吸引力之利潤。 2. 管制者應採取適當的接取管制措施,促使新進業者進入市場,使其可依投資階梯(ladder of investment)逐步建置其自有網路,促進基礎設施競爭。 3. 管制者所採取之事前管制措施,應反映個別市場與城鄉區域之市場競爭差異。 4. 管制建議強烈支持NGA網路的共同投資,並對長期或大量的光纖迴路接取合約,允許在一定條件下給予價格折扣。
美國加州網路身分冒用法2011年01月正式生效2010年12月,加州參議院通過網路身分冒用法(Criminal “E-personation”,Senate Bill 1411),針對在網路上惡意冒用他人名義的行為態樣處罰,法案提案人加州參議員Joe Simitian表示:「現有的身分冒用法規係1872年所訂,無法規範現代科技所衍生的身分冒用態樣。」所以法院一般認為網路上的冒用屬於身分剽竊的態樣,但此類型通常不涉及金錢的損失,法庭上證明困難,受害者求償不易,因而制定此一法案。 本法針對故意、未經同意在網路或其他電子途徑冒用身分,傷害、恐嚇、威脅、詐欺他人的行為,判定為輕罪(standard misdemeanor),最高可處以1000元美金或一年以下有期徒刑。因此,在社群網站中冒用他人名義,發表不雅言論的行為往後可能會受到處罰。 但「傷害、恐嚇、威脅、詐欺」的行為態樣的認定,可能會造成法院實際執法上的困難,而且可能侵害人民憲法第一增修條文的權利。以The Yes Man組織為例,該組織假冒美國商會(American Chamber of Commerce)在網路上發表支持眾議院通過氣候變遷法案,其主要目的在於遊說美國商會改變其立場,本法尚未通過前,美國商會向加州法院提出訴訟,美國商會曾就訴訟過程表達不滿,認為現行法對於身分被冒用者無所助益,然新法正式施行後,本案如何在不侵犯憲法第一增修條文的情況下,嚇阻真正帶有惡意的身分冒用者,值得進一步觀察。