跨平台應用程式的開發探討-以資料流動因應措施為中心

刊登期別
第25卷,第8期,2013年08月
 

※ 跨平台應用程式的開發探討-以資料流動因應措施為中心, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6327&no=64&tp=1 (最後瀏覽日:2026/01/21)
引註此篇文章
你可能還會想看
日本提出設置沙盒制度的法律修正案

  日本內閣府於2018年3月13日閣議決定,提出「國家戰略特別區域法」的法律修正案,以特定的地域為限,創設供自駕車、無人載具等技術測試與實踐運行之用的沙盒制度。   該法案為使這些前所未有、具高度革新性的近未來技術用於實地測試時,在確保監督管道的前提下,能獲得迅速、具彈性且友善的法律環境配合,將上開技術測試運行的事前管制強度降至最低,而以強化事後查核機制取代之,期望藉此增進產業的國際競爭力,並建立國際性經濟活動據點。   依該法案的設計,將因沙盒制度而受惠的技術實踐行為類型,包含下列五種:(1)部分未符合道路運送車輛法第41條技術基準要求的汽車運行;(2)自駕車運行而似會影響一般交通之情形;(3)在具影響一般飛航安全之虞的空域內、或在住宅密集地區上空令無人機飛行之行為;(4)未依照航空法所定之列舉方式運行無人機之行為;(5)因上開(1)至(4)之行為而必須使用無線設備的情形。   於現行法的規範下,上開技術測試行為本係牴觸法規範而不被允許、或需依各該特別法規定於個案例外取得許可或使用執照的情形。   但經沙盒制度修正案的調整後,該些測試行為只要是在經國家戰略特別區域會議制定、且受內閣總理大臣等相關機關主管認可的個別技術實證區域計劃之框架下提出,並交由獲得認定的業者進行,即可例外容許其得以不須滿足(1)當中的法定技術基準要求,或直接擬制其已獲得許可;此外,就必須使用無線設備的情況,要求總理大臣盡速發給執照予符合資格的業者。   於事後查核機制,則在區域會議設置由第三方組成的技術實證評價委員會,對各該區域計劃進行評價。

歐盟針對數位革命之法制障礙展開討論

  歐盟布魯塞爾會議規劃組織(QED)在2016年12月針對第四次工業革命法制議題提出討論,呼應2016年4月歐盟執委會提出之歐洲產業數位化政策,加速標準建立,並且預計調整現行法律規制,著重於資料所有權、責任、安全、防護方面等支規定,討論重點如下: 1.目前面臨之法律空缺為何 2.歐洲產業數位化是否須建立一般性法律框架 3.標準化流程是否由由公部門或私部門負責 4.相容性問題應如何達改善途徑 5.資料所有權部分之問題如何因應 6.數位化之巨量資料應如何儲存與應用,雲端是否為最終解決方式 7.如何建立適當安全防護機制。 8.一般資料保護規則是否足以規範機器產生之數據 9.各會員國對於資料保護立法不同,其間如何調合朝向資料自由發展之方向進行   我國2016年7月由行政院通過「智慧機械產業推動方案」,期待未來朝向「智慧機械」產業化以及產業「智慧機械化」之目標進行,未來,相關法制配套規範,如個人資料保護、巨量資料應用、以及標準化等議題,皆有待進一步探討之必要。

加州通過美國第一個限制溫室氣體排放法案

  加州是全球第十二大製造二氧化碳排放量的地區,也是美國最重視環境立法的一個州。今年八月底,加州通過全美第一個限制人為溫室效應氣體排放法案- 2006 年全球溫室效應對策法( Global Warming Solutions Act of 2006 ),希望透過該法在 2020 年以前,將溫室氣體排放量減至 1990 年的水準(約減少 25% ),而諸如發電廠、水泥工廠等溫室效應氣體最大的來源,則將被要求報告它們的排放量。   雖然全球溫室效應對策法中並未規定特別的機制(例如歐盟所採取的排放量交易機制)以達到前述目標,不過加州政府仍希望藉由其率先立法的舉動,能引起全美各地效法,進而「由下而上」( bottom-up )促使聯邦政府採取必要措施。   目前美國聯邦政府以強制減少溫室氣體排放可能損及經濟,並不應將開發中國家排除在外為由,在 2001 年決定退出有 160 國簽署的京都議定書。不過隨著加州通過 2006 年全球溫室效應對策法,加入歐盟置身於對抗氣候變化的最前線,毋寧也將對華府增加壓力,未來聯邦政府仍須審慎考量是否以強制之立法手段,而非布希政府所偏好的自願性手段,來解決全球暖化的問題。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

TOP