全球搜尋引擎龍頭Google被發現於2008年3月至2010年5月間,透過其街道定位服務,違法蒐集位於荷蘭360萬個無線路由器(Wi-Fi routers)之資料。Google因其違法蒐集資料之行為,面臨140萬歐元之罰款。 由於荷蘭相當重視隱私保護之概念,因此Google之作法引起社會之爭議,在荷蘭社會反彈之壓力下,Google於11月15日宣布,同意提供民眾將其住家地點或公司行號之無線路由器識別碼資料退出Google資料庫之機制。路由器之擁有者可透過更改服務設定識別碼(Service Set Identifier, SSID)之方式,退出Google定位服務之資料庫。荷蘭個人資料保護主管機關首長Jacob Kohnstamm認為,Google之舉對於消費者隱私之保護具有正面之幫助。 Google所提供的定位服務主要是透過所蒐集之資訊,提供其開發的Android手機定位服務,利用所蒐集的定位資料使行動電話或者行動裝置之用戶得以定位其所在之位置,並且提供用戶當地氣象以及地圖資訊。除此之外,定位服務也增加Google對鄰近商號之廣告收益。Google實施退出資料庫之機制後,其必須另外以GPS系統進行定位,定位服務可能將發生不精確之情形,另外,也將使得行動裝置因需搜尋衛星訊號而耗費較多電力。Google全球隱私顧問Peter Fleischer指出,事實上Google的定位服務無法辨識個人資料,但Google認為提供退出資料庫機制更增進對於個人隱私之保護。 歐洲各國對於Google所蒐集之無線存取資料皆有隱私保護之疑慮,因此,除了荷蘭外,目前Google也在法國公告提供此項退出機制,未來將進一步於全球實施。
3G執照屆期處理政策-國際實務與我國法制評析我國3G業務執照將於2018年底屆期,由於我國3G業務用戶數仍高,又我國第三代行動通信業務管理規則第48條第2項設有執照屆期後主管機關得為彈性處理之明文,故3G執照是否僅限於收回重新釋出頻譜,或是有其他更適宜之方式,實值進一步探討。 本研究首先借鏡國際上相關執照屆期重新釋出之執行措施與配套方案進行說明分析;其次,由市場面(我國行動通訊市場營運現況)與法制面(預算法、電信法及相關管理規則),探討我國3G執照屆期處理政策;最後提出相關建議,以供相關機關未來施政時參考。
員工分紅市價八折課稅現行促進產業升級條例第19條之1規定,為鼓勵員工參與公司經營,並分享營運成果,公司員工以其紅利轉作服務產業增資,而取得新發行記名股票,採「面額」課徵所得稅。而依據所得基本稅額條例第12條第1項第5款規定,對於員工「可處分日次日時價」與股票面額之間的差額部分,另計入最低稅負制課稅。 台聯黨團認為現行促產條例第十九條之一關於員工分紅配股以面額課稅規定,使不少高科技產業上市櫃公司,利用促產條例優惠,壓低員工本薪,以分紅配股吸引人才,造成營業成本低列,將薪資費用轉嫁給股東,扭曲財報,使高獲利的高科技產業和薪資紅利豐厚的科技人租稅優惠多繳稅少,造成政府稅收短缺,因而提出修改案,改由「市價的八成」課徵所得稅。立法院 經濟能源委員會初審通過修正促進產業升級條例,將員工分紅配股由「面額」改依「市價八折」課稅,上市櫃公司市價以配股發放日前一個月均價為準,未上市櫃公司則以配股發放日淨值為準,此規定 引發高科技業者反彈,並向經濟部反映。 目前員工分紅改為市價的八成課稅雖通過委員會初審,但提交下次院會討論前,須經朝野協商。經濟部表示,此案初審後尚需經過立法院政黨協商,再交由院會決定。員工分紅配股課稅方式改變,應要有配套才合宜(例如一定之緩衝期間讓業者調整員工薪資結構),若在配套未完成前就做決定,是比較不好的決策。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。