日本政府於2017年9月4日所召開之國家戰略特區區域會議(下稱戰略區域會議),決定由政府、東京都及愛知縣,共同成立「自駕車實證一站式中心」,協助企業及大學之自駕車相關實證研究。在自動駕駛實驗開始前,中心接受道路交通法等各程序相關諮詢,必要時可將相關程序以其他方式置換,將複數程序整合為一,推動相關實驗。
戰略區域會議並決定將窗口設置於東京都及愛知縣,欲進行實驗之企業可至前述窗口諮詢,東京都及愛知縣應與相關省廳及所管轄之警察、交通部門進行協調,並將所需之資訊彙整後回覆予企業,如此一來,企業可減輕實驗前繁瑣程序所帶來之負擔,進而降低啟動實驗之門檻。
東京都小池百合子知事於會後向記者們表示「自駕系統於汽車產業中,已是國家間之競爭」,且東京都將致力於「沙盒特區」體制之推動,於必要時可暫時停止相關現行法規之限制。愛知縣大村秀章知事則期待「透過實證實驗累積技術,促使愛知縣能維持引領世界汽車產業聚集地之地位」。
針對上述特區的設置,未來實際落實情況以及法規排除作法與範圍,值得我國持續投入關注。
日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。
綠色經濟草案(Green New Deal Resolution)簡介一、立法背景 由於美國國家海洋暨大氣總署(National Oceanic and Atmospheric Administration,縮寫NOAA)於2018年間發布關於氣候變遷將導致經濟發展受到影響之相關報告,同時間,美國最高法院拒絕駁回2015年由21位民眾及美國Our Children’s Trust(非政府組織)對聯邦政府所提起之訴訟,主張美國政府並未循正當法律程序,即鼓勵對環境保護傷害甚鉅之石化能源開發。因此聯合國人權暨環境特別報告(UN Special Rapporteur on human rights and the environment)呼籲各國盡快針對環境變遷採取相關行動,美國國會議員Ed Markey及Alexandria Ocasio-Cortez遂基於上述情事於2019年2月7偕同提出綠色經濟草案(下稱本草案)。 二、草案簡介 所謂綠色經濟,是因應全球經濟危機、氣候變遷、石油資源枯竭而提出,其內容包括金融及租稅政策的重建以及再生能源的運用,初始概念於2007年由一位記者刊載於時代雜誌與紐約時報,後相關倡議人士遂依此成立非政府組織The Green New Deal Group,並於2008年廣泛發行相關刊物。 三、草案內容 本草案賦予政府五大義務:溫室氣體零排放、創造百萬高薪工作機會、投資基礎設施及工業、永續環境(諸如確保空氣、水質、氣候、食品之安全、韌性社區之推動)、反壓迫等,且內容上更將前開義務再行細分為14項目標計畫,並訂定10年執行期間。 上揭14項目標計畫的內容大致可分為五類,分別為:提升基礎設施以因應各種氣候變遷所造成之災害、將政府所需能源全數轉換為零碳排放、提升電力及能源效率、消除製造業與農業所造成之汙染與溫室氣體的排放,另外亦全面將大眾運輸設施改建為高速及零碳排放系統。 為達成前述14項目標,本草案一共訂定15項須政府配合之細項,方向上包括:給予社區、組織、機關、地方政府及各法人相關協助、提供適切之訓練課程及高等教育、針對新興科技之研究與開發進行投資、提高家庭所得及保障各級勞工組織工會之權利、提供全民高品質之健康照護。
奈米技術之瞻性規劃-以美國推行綠色奈米為中心 人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。