簡介美國FTC垃圾電郵法制施行成效報告

刊登期別
2006年09月
 

※ 簡介美國FTC垃圾電郵法制施行成效報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=746&no=67&tp=1 (最後瀏覽日:2026/02/10)
引註此篇文章
你可能還會想看
歐洲議會通過《無線電設備指令》修正法案要求充電規格統一採用USB Type-C接頭

  為減少電子垃圾污染以及便利消費者使用消費電子產品,歐洲議會(European Parliament)於2022年10月4日表決通過《無線電設備指令》(Radio Equipment Directive, 2014/53/EU)修正法案,未來在歐盟銷售的電子產品,統一採Type-C規格的充電接頭。   這項修正法案,以602票贊成、13票反對、8票棄權的壓倒性多數通過,2024年底前強制除筆記型電腦以外,所有在歐盟境內銷售的消費電子產品一律需配備USB Type-C規格的充電接口。   屆時,所有功率達100瓦支援有線充電的消費電子產品,例如手機、平板、相機、耳機、掌上遊戲機、電子閱讀器、鍵盤、滑鼠、便攜式導航器等,都必須配備USB Type-C規格的充電接頭。而筆記型電腦也必須在2026年統一採用USB Type-C規格的充電接頭。   據此,在新修正法案施行後,同一充電器得用於各種電子設備,消費者無需於購買新設備時再重新購置充電器,除提高消費者便利性外,更能有效遏止電子垃圾的產生。   對此議題,也引發我國法制上的檢討聲浪,立法院交通委員會於2022年10月5日通過臨時提案,希望NCC加強落實手機充電器規格與統一作業,儘速作業規劃。故繼歐盟之後,未來我國行動電子裝置可望也將統一採USB Type-C規格。   由上可見,歐盟《無線電設備指令》修正法案,是全球未來可預期的調整法制動向與趨勢,蓋其賦予消費者能做出可具永續性的選擇,同時兼顧環境保護與經濟發展。我國目前相關法制規範確有所不足,應及早因應現今實務需求引介外國法制加以移植修正,以符實際。

現有法制對公立大學教授技術作價之現況與困難

日本發布美國數位政策現狀報告,呼籲推動AI發展的同時,亦應注重資料安全性

日本獨立行政法人情報處理推進機構(下稱IPA)於2025年10月發布美國第二次川普政權數位政策現狀報告(下稱現狀報告),內文聚焦於美國政權輪換後數位政策之變動與解讀,同時提及在推動AI發展的同時,亦應注重其安全性。 日本觀測美國數位政策的現狀報告指出,隨著社會數位化程度日益增加,除了雲端數位資料的累積,以及提升對於AI的依賴程度外,亦會造成釣魚信件難以識別,透過可自動生成程式碼的惡意攻擊型AI進行攻擊行為等AI濫用之風險。 準此,美國為確保AI與資料的安全性,並維持其領域之競爭優勢,於2025年7月23日發布AI行動計畫,並提出三大方針,包括加速AI創新、建構AI基礎設施,以及透過國際性的AI外交與安全保障發揮領導能力。此外,內文亦提及為確保競爭優勢,需要建立作為AI發展基礎的科學資料集,並建置資料中心,同時確保其具備高度安全性,以避免AI使用者輸入AI之資料遭到竄改或外洩。 此外,現狀報告內文提及日本企業Softbank與OnenAI、Oracle等公司共同參與規模達5000億美元的Stargate計畫,並已於德州著手建設AI資料中心,顯示日本在美國的AI基礎建設中扮演重要角色並佔有一席之地。然而,內文亦指出美國數位政策具備不透明性而有潛在風險,須持續留意與關注。 我國企業如欲深耕AI領域,並透過AI進行技術研發,可由建立科學資料集開始著手,以作為訓練AI模型的基礎,以達到運用AI輔助及縮短研發週期、減少研發過程中的試錯成本等效益。此外,為確保安全性,科學資料集建置過程中所需之數位資料,可參考資訊工業策進會科技法律研究所創意智財中心所發布之《重要數位資料治理暨管理制度規範》,建立貫穿數位資料生命週期之資料治理機制。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

TOP