德國聯邦交通及數位基礎設施部(Bundesministerium für Verkehr und digitale Infrastruktur, BMVI)於2020年12月2日公布與道路安全資料工作組(Data Task Force for Road Safety)成員簽署多方協議,以促進交通資料於道路維運單位、聯網車、智慧基礎設施間傳輸交換,進而透過最新技術識別道路危險狀況,以提升交通安全。
道路安全資料工作組係由歐盟成員國、車輛製造商、相關應用服務提供商所組成的公私合營夥伴關係,其任務為透過政府與產業相關利益者之合作,促進道路安全性資料可跨品牌和跨國界共享,並於公平可靠的合作夥伴關係下,促進公平競爭。
而在多方協議中,歐盟成員國,道路交通管理單位,汽車製造商和供應商以及地圖服務提供商等成員,承諾進行長期資料交換,並於協議中定義如何在安全相關交通資訊(Safety Related Traffic Information, SRTI)生態系統內,以公平、可靠的方式近用相關資料,並規定合作夥伴於SRTI價值鏈中應扮演的角色與責任,和透過分享安全相關的的資料,進而提供安全性服務。而在簽署本協議前,已成功完成可行性研究,在2019年6月至2020年10月間,不斷地測試SRTI系統並交換共數百萬筆資料,包括危險事故現場、暫時性濕滑路面、視野受限、特殊天候狀況等資訊。而在初步測試報告指出,透過上述資料交換,可發出相關危險交通狀況警告,能迅速有效因應各狀況作出適當的決策。
本文為「經濟部產業技術司科技專案成果」
近年來許多先進國家的藥廠或是生技公司紛紛到生物資源豐富的國家從事生物探勘活動,希望可以尋找合適的生技產品候選者 (candidate) ,也因此產生許多不當佔有的生物盜竊 (biopiracy) 事件。 由於印度本身在 2002 年專利法修正時,特別規定生技發明之專利申請者若使用生物物質 (biological material) ,應揭露其地理來源 (source of geographical origin) ,未揭露其來源地或提供錯誤資訊者,則構成專利撤銷之理由; 2005 年的專利法修正的重點之一為「加強專利授予前異議 (pre-grant opposition) 機制」,意即未揭露生物物質之來源地或提供錯誤資訊者,或者申請專利之權利內容含有傳統知識者,可提出異議之事由。 目前國際間針對是否應強制規定申請人應揭示其來源地等仍無共識。從 2001 年的杜哈發展議程的談判會議結果即可知,由於該談判採取 「單一承諾( Single Undertaking )」模式且可從不同議題間相互掛勾,加上開發中及低度開發會員採取結盟方式來壯大談判立場,在某些關鍵議題與美國、歐盟等主要會員國形成抗衡局面。 開發中國家對於 TRIPs 第 27 條第 3 項 b 款的審議特別在乎,認為 TRIPs 協定應該修訂應納入上述的揭露需求外,還必須提供事先告知且同意 (prior informed consent) ,以及因該專利而獲取的利益與來源地分享之證明。 因此,印度提出修正 TRIPs 協定的建議,強制會員國必須改變內國法律,規定專利申請者必須揭露其發明所使用的生物物質來源,並希望能在今年 12 月香港部長會議裡討論。
開放非銀行事業從事預付式行動付款服務法制議題之研究 新冠疫情下日本的數位經濟實踐之路新冠疫情下日本的數位經濟實踐之路 資訊工業策進會科技法律研究所 2021年3月9日 2021年2月,日本經濟團體聯合會(以下簡稱「經團聯」)發布其所舉辦有關「後疫情時代的數位政府與數位經濟」之座談會研討內容。該座談會於2020年12月舉辦,主旨為探討日本持續推進數位轉型與邁向社會5.0目標之過程中,面對新冠肺炎疫情之擴大,有何待解決之課題[1]。 壹、主要問題 數位轉型之層面所涉甚廣,本文認為可初步分為政府面、企業面及個人面。首先,就政府面而言,可探討如何建立e化政府並提供民眾便捷服務。其次,就個人面而言,則可能涉及消費者資料之蒐集與個人隱私資料保護之議題。最後,就企業面而言,則包含同種企業或不同企業間彼此蒐集到的資料共享、利用及分析。 針對企業間,擔任數位經濟推進委員長之篠原弘道於會中指出,數位轉型致力於價值創新,然而,日本業界間的數位轉型存在一極大的待突破問題,即是彼此對於資料資源之分享,尚存不信任甚且互相猜疑,此將不利於資料共享之發展。篠原弘道進一步說明,數位轉型以突破空間與距離之屏障為特色,欲突破此一屏障有賴於民間企業彼此間的合作與信賴,僅只單一企業的資料本身無法有效達至此目標,呼籲日本國內企業能協力合作,強化數位流通與交流[2]。 執此,如何促進企業間的資料分享,建立互相信賴的關係,突破業界間彼此藩籬,即為官方及民間所應努力的目標。 貳、具體案例 就民間而言,日本已有民間發起之企業共享平台,例如2018年5月至12月,三菱房地產於東京車站周邊之大丸有地區進行實驗性的OMY(大手町、丸之內到有樂町一帶的區域,日本俗稱Daimaruyu,簡稱OMY))資料活化計畫,驗證跨行業別企業間的資料利用分配與有效性,期盼能將資料應用於促進該地區的經濟成長、帶動觀光發展,甚至規劃災害措施[3]。 提供該計畫資料服務平台的富士通有限公司經理池田榮次指出,該計畫為了建立彼此信任感,而非一味地僅關注於資料的分析,進行了多達12間公司之間的對談,並也得到了一定的成效。 參、事件評析 有關企業面的資料活用,本文認為可大致分為「單一公司」、「同業種內」及「異業種間」三者。單一公司之資料活用,以壽司郎為例,其將每盤菜餚均以IC標籤管理,藉以蒐集每盤菜餚之新鮮度、銷售情況。從而,累積之資料即可運用於掌握消費者喜好,並避免食材之浪費等[4]。同業種內則涉及相同類別的企業間,藉由共享資料以減低成本。例如不同藥物研發公司,藉由樣本試驗共享,從而擴增實驗母群體之數量[5]。異業公司則可能由位於同一地區之不同企業所構成,例如前揭大丸有OMY資料活用計畫。 經團聯所提出之議題,乃著眼於同業種內及異業種間的跨公司間資料交流不易,因而提出民間企業積極跨越藩籬之呼籲。我國於推動資料共享平台等相關政策時,亦可思考政府端可提供何種支持及資源,以側面促進同種或不同種企業間之資料共享意願;同時,如何令企業理解到彼此間的合作協力,將是新興價值得以開拓的寶貴契機,亦是一大值得省思之重點。 參考連結 日本經濟團體聯合會2月份月刊特集〈後疫情時代的數位政府與數位經濟〉https://www.keidanren.or.jp/journal/monthly/2021/02_zadankai.pdf [1]〈ポストコロナのデジタルガバメントとデジタルエコノミー〉,《経団連月刊》,2月号期,(2021)。 [2]同前註,頁15。 [3]〈異業種データ活用で、東京のビジネスエリアが生まれ変わる【前編】〉,Fujitsu Journal,https://blog.global.fujitsu.com/jp/2019-07-26/01/,(最後瀏覽日:2021/03/09)。 [4]〈15社のビッグデータ活用事例から学ぶ、成果につながる活用の方法〉,https://liskul.com/wm_bd10-4861#3_IC(最後瀏覽日:2021/3/9)。 [5]独立行政法人情報処理推進機構,〈データ利活用における重要情報共有管理に関する調査 調査実施報告書〉,頁9(2018)。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。