印度電子資訊產業技術部(MeitY)2022年11月在網站上公布了個人資料資訊保護法草案(Digital Personal Data Protection Bill,以下簡稱該法案),並於2023年7月提交議會審查。目前印度民法不承認未成年人(未滿18歲者)具有自主簽訂契約的能力。因此,取得的兒童同意不具有法律效力,必須徵得父母或是監護人的同意才能合法蒐集兒童個人資料。
根據印度2022年個人資料資訊保護法案草案,任何未滿18歲的人都被歸類為「兒童」。該法案中同時限制專門向兒童發送的廣告,並且監管任何追蹤兒童行為的情況。目前國際隱私法(例如:歐盟通用資料保護條例 (GDPR)、加州消費者隱私法(CCPA)等)的兒童定義多在13至17歲之間。但考慮到兒童個人資訊的敏感性和潛在危害,印度政府採取了較保守嚴謹的路線。政府也已被授權制定有關處理兒童個人資訊的細則,特别是確保資料使用人不可使用可能對兒童造成傷害的個人資料。
根據社會發展狀況,兒童若每次在網路平台上進行活動時都需經過父母或是監護人同意不甚妥適,且根據前述說明,兒童界定年齡為18歲以下,若依照統一年齡範圍進行控管,實際執行上面臨窒礙難行之處。故修法者在對於該法案修改意見中,引用了其他國家隱私法中的不同年齡分類限制,以求降低年齡門檻限制,或是根據用戶的年齡制定差異化的授權要求。
另一個產生的爭議為,該如何驗證父母或是監護人的同意表示。法條中目前無明確規範何為「有效之同意表示」,現行各平台使用不同的方法獲得父母或是監護人的同意,目前有兩種方式,包括點選「同意」按鈕,或是在用戶條款中表示若使用服務等同於監護人同意。
關於兒童年齡之界定,是否將參考其他國家規範進行差異化設定,目前暫無明確定論(包括如何調整、年齡級距設定),根據資訊使用的普及,兒童年齡的界定可以預期的將會進行調整;關於如何有效驗證父母或是監護人的同意表示,目前在技術上大多服務商都偏好透過會員註冊時的同意按鈕或是用戶條款中列明若使用服務即代表同意這兩種方式認定,在這兩種方式之後,系統是否有設定驗證機制,以及需要何種驗證方式才可以認定父母或是監護人的同意表示是符合法律效力的,都需後續再進行研擬。
台灣自一九九○年至二○○四年止,平均每人排放量自五‧五七公噸大幅增加至十一‧五九公噸,以國際能源總署 (IEA )截至2002年統計,全球排放量前三名為美國、中國及俄羅斯,台灣則排名全球第22名。 主計處表示,依 IEA 統計資料庫顯示,二○○二年全球二氧化碳排放量前六名為美國(57.1億噸,占全球23.3﹪)、中國(34.7億噸,占14.2﹪)、俄羅斯(15.2億噸,占6.2 ﹪)、日本(11.8億噸,占4.8 ﹪)、印度(10.5億噸,占4.3﹪)及德國(8.5億噸,占3.5 ﹪)。台灣則排第 22 名(1990年為第28名),排放量占全球總量約1﹪,而經濟發展程度與我國相近的南韓、新加坡排名分別為第9名(4.7億噸,占1.9﹪)及52名(5500萬噸,占0.2﹪)。 行政院主計處據工研院能源與資源研究所統計,公佈最新「我國燃料燃燒排放二氧化碳」概況,台灣溫室氣體排放以二氧化碳為最大宗,佔八成以上,至二○○四年為 2.6億噸。 主計處指出,為抑制人為溫室氣體排放導致全球氣候變遷加劇現象,聯合國在一九九二年通過「聯合國氣候變化綱要公約」,且為落實排放管制工作,具有約束效力的「京都議定書」,已在今年二月十六日正式生效,期使在二○○八至二○一二年間,六種溫室氣體排放量平均應削減至比一九九○年低五‧二 %水準。在全球持續增溫、海平面上升及氣候變遷加劇下,台灣雖非京都議定書締約國,但政府相關部會順應國際永續發展潮流,正積極落實檢討溫室氣體排放減量政策。
日本發布策略性資料使用之資料管理指南,旨在協助企業將資料視為資產與產品,以策略性的運用資料日本獨立行政法人情報處理推進機構於2025年6月11日發布《日本發布策略性資料使用之資料管理指南(下稱《指南》)》,旨在協助企業將資料視為資產與產品,以策略性的運用資料。 《指南》指出,資料管理是指企業針對其所擁有的所有資料,進行有效率的收集、整理、保存、共享、分析與運用的一套系統化流程,其目的是為了透過確保資料品質及正確性,協助業務決策,並確保企業的競爭優勢。 在現代企業經營中,資料具有雙重屬性,亦即資料除了是企業重要的經營資產,同時也是企業的產品之一。作為資產的資料如同設備等一般資產,是可供銷售或提供服務的資產,故為最大化其價值並促進成長,需要進行適當管理與投資。此外,由於資料具有可複製性,因此一經外洩,將會造成廣泛且持續性的影響,因此需進行資料管理以確保資料安全性;作為產品的資料則需要有效的整備及管理,以確保維持其正確性所需的品質。 根據《指南》,資料管理的核心在於其需要貫穿資料生命週期,且隨著數位化的進展,對於資料管理亦產生新的需求,例如針對資料多元運用需求之應對、資料須具備可追溯性、針對機密資料之管理方式、確保資料安全性及資料品質等。 為因應新興資料管理需求,《指南》建議可透過評估自身定位、規劃必要體制、思考資料策略及管理架構、盤點企業既有資料及必要資料、培養及建立企業從決策層到執行層的人員均重視資料的資料文化,以及減少不必要或易出錯的作業流程等六項具體措施,建立企業自身貫穿資料生命週期之資料管理流程。 我國企業如欲逐步建立並落實貫穿資料生命週期的資料管理流程,可參考資訊工業策進會科技法律研究所創意智財中心所發布之《重要數位資料治理暨管理制度規範》,作為資料管理流程設計與實務落實之參考,以強化自身資料管理能力。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
何謂「群眾募資(crowdfunding)」?「群眾募資(crowdfunding)」過去原泛指一切提出資金需求計畫,向社會大眾招募資金的行為;目前則指資金需求者透過群眾募資網路平台提出資金需求,由平台代為籌資後再將資金轉交與資金需求者之活動。 群眾募資可紓解創業家有創意無資金無擔保品的資金困境,因此主要運用於難以透過傳統金融管道取得資金之產業,例如文化創意產業。然而除了商品生產或短期計劃的募資,廣義的群眾募資運用尚包含永續的事業資本募集以及週轉資金募集。目前各種群眾募資模式可分為捐贈模式、股權模式及債權模式: 1、捐贈模式:群眾捐錢贊助某個特定方案,但不期待因個人的捐助而獲得任何金錢上的回報。但通常會獲得提案者承諾提供之實物或者是體驗服務作為回饋。 2、資本模式(或稱股權模式):群眾透過網路平台將金錢投入某個專案,未來可以獲得因該專案所成立之公司的股票,或者是獲得盈餘或收益的分配。 3、債權模式:群眾透過網路平台將金錢借給某個專案或某人某公司,承諾未來會償還所借之金額及利息。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現