本文為「經濟部產業技術司科技專案成果」
美國聯邦第七巡迴上訴法院於2018年08月16日宣告,美國伊利諾伊州杜佩奇縣內珀維爾市(Naperville)所經營之「獨占性」公用售電業,以裝設智慧電表手段蒐集用電戶即時(Real Time)用電資料,並保存長達三年之行為,並無違反美國憲法第四條修正案以及伊利諾州憲法第一條第六項所宣示之不得以不合理手段對於民眾居住隱私資料進行搜索之限制。 美國聯邦第七巡迴上訴法院闡明,本案爭點有二:第一,內珀維爾市(Naperville)所經營之獨占性公用售電業以裝設智慧電表手段蒐集用電戶即時用電資料,並保存長達三年之行為,是否構成美國憲法第四條修正案以及伊利諾州憲法第一條第六項所謂之「對於民眾居住隱私資料之搜索」?第二,如內珀維爾市(Naperville)所經營之獨占性公用售電業以裝設智慧電表手段蒐集用電戶即時用電資料係構成「對於民眾居住隱私資料之搜索」,則內珀維爾市(Naperville)所經營之獨占性公用售電業是否有更高之公益,可合理化此一對於「對於民眾居住隱私資料之搜索」之行為? 美國聯邦第七巡迴上訴法院認定內珀維爾市電業以智慧電表手段蒐集民眾用電資訊,確實是構成美國憲法第四條修正案以及伊利諾州憲法第一條第六項所謂之「對於民眾居住隱私資料之搜索」。但是由於珀維爾市電業蒐集這些用電資訊,是基於更高之公益目的,因此仍屬以合理手段對於民眾居住隱私資料進行搜索。因此判決本案珀維爾市電業勝訴。 於第一爭點,美國聯邦第七巡迴上訴法院認定智慧電表之紀錄內容包含「電器負載特徵(load signature)」以及「用電戶電力消耗慣性」,對比Kyllo v. United States, 533 U.S. 27, 31-32(2001)乙案下警方以熱感應器方式偵測住宅整體熱能有無之行為,更高度細緻化、具有侵入性,且智慧電表之設置,於現今尚非普及(not in general public use),因此構成對於民眾居住隱私資料之搜索。又內珀維爾市(Naperville)所經營之獨占性公用售電業雖辯稱用電戶於裝設智慧電表時,皆已經同意電業蒐集其個人用電資訊,然美國聯邦第七巡迴上訴法院認定,內珀維爾市(Naperville)所經營之公用售電業具有高度獨占性,故用電戶裝設智慧電表之同意難謂有效,且用電戶同意用電,不代表用電戶即同意分享其用電資訊。 惟於第二爭點,美國聯邦第七巡迴上訴法院認定,由於內珀維爾市(Naperville)所經營之獨占性公用售電業已經聲明不會將此類用電資訊分享予有關政府機關,且本案對於用電戶用電資訊之蒐集,其目的亦與刑事追訴無關,是以應以低密度審查標準看待本案即可,又本案內珀維爾市(Naperville)所經營之獨占性公用售電業裝設智慧電表之目的在於促使電網現代化,並且可使發電業供應更加穩定之電力,並且也可以透過時間電價(Time-Based Pricing)之方式促使用電戶節電,並且減少電網負載,同時也可以使發電業節省查表之人事成本,因此雖然內珀維爾市(Naperville)所經營之公用售電業透過裝設智慧電表之手段蒐集用電戶即時用電資訊係構成對於用電戶之民眾居住隱私資料之搜索,然由於其具有更高之公益性,因此仍可合理化此一對於「對於民眾居住隱私資料之搜索」之行為。 綜上,本案美國聯邦第七巡迴上訴法院判定內珀維爾市(Naperville)所經營之獨占性公用售電業勝訴。
印度對TK( Traditional Knowledge傳統知識 )保護提出的建議修正案近年來許多先進國家的藥廠或是生技公司紛紛到生物資源豐富的國家從事生物探勘活動,希望可以尋找合適的生技產品候選者 (candidate) ,也因此產生許多不當佔有的生物盜竊 (biopiracy) 事件。 由於印度本身在 2002 年專利法修正時,特別規定生技發明之專利申請者若使用生物物質 (biological material) ,應揭露其地理來源 (source of geographical origin) ,未揭露其來源地或提供錯誤資訊者,則構成專利撤銷之理由; 2005 年的專利法修正的重點之一為「加強專利授予前異議 (pre-grant opposition) 機制」,意即未揭露生物物質之來源地或提供錯誤資訊者,或者申請專利之權利內容含有傳統知識者,可提出異議之事由。 目前國際間針對是否應強制規定申請人應揭示其來源地等仍無共識。從 2001 年的杜哈發展議程的談判會議結果即可知,由於該談判採取 「單一承諾( Single Undertaking )」模式且可從不同議題間相互掛勾,加上開發中及低度開發會員採取結盟方式來壯大談判立場,在某些關鍵議題與美國、歐盟等主要會員國形成抗衡局面。 開發中國家對於 TRIPs 第 27 條第 3 項 b 款的審議特別在乎,認為 TRIPs 協定應該修訂應納入上述的揭露需求外,還必須提供事先告知且同意 (prior informed consent) ,以及因該專利而獲取的利益與來源地分享之證明。 因此,印度提出修正 TRIPs 協定的建議,強制會員國必須改變內國法律,規定專利申請者必須揭露其發明所使用的生物物質來源,並希望能在今年 12 月香港部長會議裡討論。
澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。