大阪框架(Osaka Track)

  2019年6月28日於日本大阪舉行的G20高峰會上,大阪框架(大阪トラック、Osaka Track)再次躍上國際檯面,日本首相安倍晉三在G20高峰會的數位經濟議程當中,倡議建立大阪框架作為資料跨境流通之標準。安倍強調數位化對促進各國經濟發展與創新意義重大,而在數位時代下資料作為重要的成長動力來源,為了能最大化資料運用的可能性與發展潛力,建立一套國際通用的資料流通機制顯然已勢在必行。

  「大阪框架」概念的首次提出,源自2019年1月23日安倍首相於瑞士達沃斯所舉辦的世界經濟論壇(World Economic Forum)中所發表的演講,強調資料將是21世紀經濟發展的關鍵資源,透過建立一套國際通用的資料自由流通機制,將有助於確保在數位時代下各種新興科技的創新與發展,不會受到各國管制措施及資料在地化(data localization)政策所阻礙。

  「大阪框架」的核心為建立「可資信任的資料自由流通機制」(Data Free Flow with Trust,簡稱DFFT),透過建構國際所共同信任的資料跨境流通機制,將有助於推動包含電子商務在內等各式資料之流通與利用,進而促進數位創新;安倍宣示2019年大阪G20高峰會為大阪框架的起始點,並強調基於此前提出之WTO電子商務共同聲明,期許能透過WTO各會員國的合作,實現建立國際通用的資料跨境流通機制之目標。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 大阪框架(Osaka Track), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8290&no=57&tp=5 (最後瀏覽日:2026/02/26)
引註此篇文章
你可能還會想看
JD SUPRA研析發布企業員工營業秘密管理戰略

  根據JD SUPRA於2022年4月29日研析美國Bay Fasteners & Components, Inc. v. Factory Direct Logistics, Ltd.案例,並刊出「制定全面性的營業秘密戰略」一文指出,員工的入職和離職是企業營業秘密糾紛產生的主要風險之一。企業在僱用員工時須避免營業秘密的污染和竊取。員工離職時,企業應採取離職面談與提醒,以防止離職員工洩露營業機密。以下針對員工入職、員工離職兩個情形,整理建議企業應採取之對策。   員工入職時,為避免新員工帶來任何營業秘密的污染,企業應教育新進員工保護前雇主營業秘密的重要性、如何將營業秘密從know-how區分出來,或是要求員工證明他們不會透露與持有前雇主的機密資訊或任何非公開資訊。然而,為保護企業的營業秘密不被員工竊取,最直接的方法是使用契約中的保密協議、競業禁止條款進行約束,作為保護企業的證據。   離職面談是防止離職員工向未來雇主揭露企業營業秘密的有效方法。在離職面談時,企業應提供員工入職時所簽訂的保密協議條款與相關任職期間的協議約定,並要求離職員工簽屬確認書證明已被告知應遵守的營業秘密內容範圍及其所負義務,同時企業應記錄離職面談過程的內容。若知悉離職員工未來任職公司,建議以信件通知該公司提醒應尊重彼此的營業秘密。此外,企業在得知員工要離職時,應指示IT部門確認員工電腦登錄及下載歷史紀錄是否有洩漏營業秘密之可疑活動,例如大量讀取文件、使用非公司的IP登入。員工離職後,IT部門應盡快停用該離職員工相關帳號權限,同時考慮資料備份,即使沒有檢測到可疑的活動,也建議備份員工的設備使用狀況和帳號log紀錄,以作為日後面臨爭訟時之證據。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

企業監看員工網路活動法律爭議之防堵

日本創設搭載遠距型系統自駕車基準緩和認定制度

  日本國土交通省於2017年2月修正《道路運輸車輛安全基準》第55條第1項、第56條第1項及第57條第1項規定之告示,放寬車輛安全基準規定,期望自動駕駛實驗能順利展開。惟在各種自動駕駛實驗中,遠距型自動駕駛系統是透過電信通訊技術,從遠距離外操作車輛行駛,儘管修法後已放寬安全基準規定,但其仍與現行以車內有駕駛為前提而訂定之《道路運輸車輛安全基準》相距甚遠,想一律判斷其符合安全基準有所困難。據此,為使遠距型自駕系統道路實驗能夠順利進行,國土交通省於2018年3月30日創設「搭載遠距型系統自駕車基準緩和認定制度」,明確規定遠距型自駕系統實施道路實驗所需各項手續。   「搭載遠距型系統自駕車基準緩和認定制度」規定項目包括︰申請放寬基準之對象、申請者、申請書及繳交文件、審查項目、條件及限制、基準放寬之認定、車體標示、行政處分等。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

TOP