跨平台應用程式的開發探討-以資料流動因應措施為中心

刊登期別
第25卷,第8期,2013年08月
 

※ 跨平台應用程式的開發探討-以資料流動因應措施為中心, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6327&no=57&tp=1 (最後瀏覽日:2025/12/16)
引註此篇文章
你可能還會想看
日本提出2020年創新願景的期中建言,主張應自未來需求中發掘創新方向

  日本經濟產業省所屬「研究開發與創新附屬委員會」於2020年5月29日統整了有關2020年創新願景的期中建言並作成報告。本次的願景建言,係著眼於日本於IT等領域無法推動新興產業的現狀,且在原本具有競爭優勢的領域上,又因新興國家崛起導致實質獲益降低,加之新型冠狀病毒疫情使經濟活動停滯等結構性變化,產生全球性的典範轉移等問題。故認為應自長遠觀點出發,視「從未來需求中發掘創新價值」的途徑為創新關鍵,化危機為轉機,並同步觀察國內外的動向,針對企業、大學、政府各界應採取的行動,綜整出2020年的期中建言。   本次期中建言以產業為核心,主要包含以下幾個面向:(1)政策:例如,為積極參與新創事業的企業規劃認證制度;透過修正產學合作指引、簡化〈技術研究組合(為成員針對產業技術,提供人力、資金或設備進行共同研究,並為成果管理運用,且具法人格的非營利組織型態)〉設立與經營程序、擇定地區開放式創新據點等手段深化與落實開放式創新;以「創造社會問題解決方案」與「保護關鍵技術」的研發活動為重心,鬆綁相關管制,並調整計畫管理方式等以協助技術投入市場應用;以2025年與2050年為期,就次世代運算(computing)技術、生化、材料與能源領域提出科技與產業發展的願景;藉由改善人才制度、數位轉型等方式,強化企業研發能量;(2)「從未來需求中發掘創新價值」概念:現行研發與導向商品化的模式,主要以既有的技術、設備等資源為基底,進行線性且單向的創新研發,重視短期收益與效率化,使成果應用未能貼近社會的實際需要,故未來應在此種模式之外,另從創造社會議題解決方案與切合未來需求的觀點出發,結合既有技術資源來擬定長期性的研發創新戰略並加以實踐;(3)產官學研各界角色定位與任務:大學與國立研發法人應強化其研發成果之商轉合作,調整課程內容以削減知識與人才產出不符合社會議題需要的問題;企業的創新經營模式,則應透過ISO56002創新治理系統標準、日本企業價值創造治理行動指針(日本企業における価値創造 マネジメントに関する行動指針)等標準實踐,擴大開放式創新的應用;政府則應採取調整稅制、建置活動據點等方式,建構並提供有利於開放式創新的環境,並針對產業發展願景中的關鍵領域(如感測器等AI應用關聯技術、後摩爾時代(post moore's law)運算技術、生化技術、材料技術、環境與能源技術等)進行投資。

歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用

  歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。   「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。   「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。   在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。   而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。   在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。

歐盟EDPB認為防範Cookie疲勞應確保資訊透明及簡化

歐盟資料保護委員會(European Data Protection Board, EDPB)於2023年12月13日回覆歐盟執行委員會(European Commission, EC)有關Cookie協議原則草案(Cookie Draft Pledge Principles)之諮詢。該草案旨在處理「Cookie疲勞」(Cookie fatigue)所造成的隱私權保護不周全之處。 在電子通訊隱私指令(ePrivacy Directive)以及GDPR規範下,由於現行同意機制複雜,造成用戶對Cookie感到疲勞,進而放棄主張隱私偏好。 為了避免「Cookie疲勞」,EDPB提出以下原則和建議,大致可以分為三點: 一、簡化Cookie不必要的資訊 1.基本運作所需之Cookie(essential cookies)無需用戶同意,故不必呈現於同意選項,以減少用戶需閱讀和理解的資訊。 2.關於接受或拒絕Cookie追蹤的後果,應以簡潔、清楚、易於選擇的方式呈現。 3.一旦用戶拒絕Cookie追蹤,一年內不得再次要求同意。 二、確保資訊透明 1.若網站或應用程式的內容涉及廣告時,應在用戶首次訪問時進行說明。 2.不僅是同意追蹤的Cookie,用於選擇廣告模式的Cookie,仍需單獨同意。 三、維持有效同意 1.應同時顯示「接受」和「拒絕」按鈕,提供用戶拒絕Cookie追蹤的選項。 2.在提供Cookie追蹤選項時,除了接受全部的廣告追蹤或付費服務外,應提供用戶另一種較不侵犯隱私的廣告形式。 3.鼓勵應用程式提前記錄用戶的Cookie偏好,但強調在用戶表達同意時必須謹慎處理,預先勾選的「同意」不構成有效同意。 EC表示,該草案目的在於簡化用戶對Cookie和個人化廣告選擇的管理,雖然為了避免Cookie疲勞而簡化資訊,仍應確保用戶對於同意Cookie追蹤,是自願、具體、知情且明確的同意。將於後續參考EDPB之建議,並與利害關係人進行討論後,制定相關法規。

日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險

日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP