聯合國教科文組織於2020年9月發布《人工智慧倫理建議書》草案(First Draft Of The Recommendation On The Ethics Of Artificial Intelligence)(下稱建議書),以全球性的視野與觀點出發,為第一份全球性關於人工智慧倫理的建議書,試圖對人工智慧倫理作出框架性規定,對照其他區域性組織或個別國家人工智慧倫理準則或原則,著重之處稍有差異。該建議書係由組織總幹事Audrey Azoulay於2020年3月任命24位在人工智慧倫理學方面之跨領域專家,組成專家小組(AD HOC EXPERT GROUP, AHEG),以《建議書》的形式起草全球標準文書。
其主要內容提到六大價值觀:(一)人性尊嚴(Human dignity)、(二)基本人權和自由(Human rights and fundamental freedoms)、(三)不遺漏任何人(Leaving no one behind)、(四)和諧共生(Living in harmony)、(五)可信賴(Trustworthiness)、(六)環境保護(Protection of the Environment)。其中尤值關注處在於,建議書除強調人工智慧的技術、資料及研究需要進行全球範圍的共享外,相當重視世界上所有的國家及地區在人工智慧領域是否能均衡發展。特別在六大價值觀中提出「不遺漏任何人」觀點,也同時呼應了聯合國永續發展目標(Sustainable Development Goals, SDGs)的倡議。在人工智慧技術發展過程中,開發中國家(global south)及相對弱勢的群體是相當容易被忽略的。人工智慧蓬勃發展的時代,若某些群體或個體成為技術弱勢者,不僅在技術發展上有落差,更可能使人工智慧系統容易產生歧視、偏見、資訊和知識鴻溝,其後更將導致全球不平等問題的挑戰。
由專家小組起草的建議書草案已於2020年9月提交給聯合國成員國,作為對建議書的初步報告。該報告將提供給各會員國,並同步提交給預定於2021年召開的政府專家委員會,最後預計於2021年底的提交聯合國教科文組織大會。
歐洲數位權利中心(The European Center for Digital Rights,下稱noyb)為提倡網路隱私權、消費者隱私的非營利組織,其於2021年11月12日向奧地利資料保護局(Austrian Data Protection Authority, DSB)投訴Grindr公司,抗議該公司的Grindr應用程式違反歐盟的一般資料保護規範(即General Data Protection Regulation,下稱GDPR)。 Grindr是款交友約會軟體,主要的使用者為男同性戀、雙性戀以及跨性別者。使用者註冊帳號時,僅需提供電子郵件信箱帳號及密碼和一些個人基本資料即可。然而,若使用者想了解Grindr公司如何使用其個人資訊時,Grindr公司要求使用者需手持記載其電子郵件的字條,或拿著護照自拍,經該公司確認使用者身分後,才會配合使用者的請求。noyb直言,Grindr公司的認證政策不僅荒謬,更違反了GDPR。 noyb代表一個名為「Hunk_69」的帳號使用者提出投訴,這個帳號因為身分認證失敗而遭到Grindr公司拒絕透露該公司如何使用其個人資料。noyb指出Grindr公司對於使用者提供個人資料的政策前後不一,儘管使用者在使用Grindr交友時可以保持匿名狀態,但在向Grindr公司請求提供個人資料用途時,卻需要提供真實身分。noyb主張Grindr公司已經違反歐盟GDPR第5條(1)©「資料最少化原則」。多數公司多半以「安全理由」要求客戶提供個人資料供其認證,但這樣的要求是不當的,根據奧地利聯邦行政法院、愛爾蘭資料保護委員會(the Irish Data Protection Commissioner, DPC),以及丹麥資料保護局(Danish Data Protection Agency, Datatilsynet)近期裁決見解,認證客戶身分必須個案評估使用者的身分是否有疑慮,而非一概的要求使用者進一步提出個人資料以供公司認證。因此,使用者在Grindr註冊帳號時,既然毋庸提供真實姓名,則Grindr公司於認證使用者身分要求提出真實姓名,實際上是無任何幫助,反而違反了GDPR第5條「資料最少化原則」及第12條(6)規定。 noyb創辦人Max Schrems表示,Grindr的設計就是讓使用者保持匿名狀態,因此使用者僅須使用電子郵件信箱和密碼,就可以在Grindr上與人互動,甚至分享最私密的照片,但想要實行GDPR相關權利時,卻須自行揭露身分並提供身分證明。 Grindr公司則認為,如果使用者想要實踐GDPR賦予使用者的權利,不願與Grindr分享任何個人資訊,可以刪除Grindr帳號。
美國參議院通過「2008年基因資訊平等法」(Genetic Information Nondiscrimination Act of 2008)美國參議院以95對0票通過了「2008年基因資訊平等法」(Genetic Information Nondiscrimination Act of 2008),該法案主要是為了增補「2007年基因資訊平等法」(The Genetic Information Nondiscrimination Act of 2007)所制定。 「2008年基因資訊平等法」的內容主要為:1.保險業者不得基於被保險人的基因資訊,拒保或是提高保費,也不得要求被保險人提供其基因資訊以供保險用途,除非符合該法的例外規定。2.雇主不得以員工的基因資訊來限制、隔離、分級員工的工作,更不可據此來剝奪員工的工作機會。但是,本法所稱的基因資訊不包含個人的性別與年齡。 在本法通過之前,美國已有41個州立法保護個人的基因資訊被保險公司使用,並且進行不平等的對待;另有32個州立法保護員工因為基因資訊,兒在工作場合受到歧視。美國並於2000年發佈行政命令(Executive Order 13145),禁止利用基因資訊歧視聯邦單位的員工;另外,「1996年醫療保險可攜與責任法」(Health Insurance Portability and Accountability Act of 1996, HIPAA)也針對歧視做了若干的保護,但是仍有許多漏洞,諸如沒有限制保險公司收集被保險人的基因資訊,或是沒有禁止保險公司要求被保險人進行基因檢測等,所以觀察家認為本法的通過對於個人權利保護是一項進步,但是遺傳病醫藥業者與研究者卻憂慮本法阻礙了醫療研究的發展。
日本財務省研擬要求企業以電子方式申報法人稅和消費稅日本納稅作業效率和全世界其他先進國家相比仍然偏低,根據世界銀行之調查,日本企業每年花費納稅作業的時間約330小時,是OECD會員國平均時間的1.9倍。為有效提高企業處理稅捐事務作業之效率,日本財務省研擬要求企業申報法人稅和消費稅時必須以電子方式進行,目標是在今年6月前提出具體草案,納入2018年度的稅制改正大綱。 日本自2004年起開辦法人及自然人透過網路申報納稅,各地稅務署可透過國稅綜合管理(SKS)系統讀取申報書類並取得其內容,且由於相關申報書類依法應保存9年,利用電子申報方式可有效節省空間成本程序負擔。 以2015年為例,法人稅全年總申報件數約196萬件,其中已有75%是經由網路申報。但另一方面,資本額1億元以上的日本企業經由網路申報者則僅有52%,理由除了大企業多有自成一格的總務會計系統,以及普遍仍存在以收據等文件進行報帳的習慣外,佔稅收全體約4成的地方稅目前仍有許多地方政府尚未提供電子申報之服務也是重要原因,就此總務省亦將持續進行基礎設施之整建以克服此問題。 我國自1998年擘劃電子化政府起至今已邁入第五階段,為能達成「便捷生活」、「數位經濟」及「透明治理」三大目標以及「打造領先全球的數位政府」之願景,應可參考前述日本政府之各項作法。
澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。