美國聯邦通訊委員會(Federal Communications Commission, FCC)於2024年3月14日通過「衛星補充涵蓋(Supplemental Coverage from Space, SCS)」的監理架構,未來將增修聯邦法規電信專章(Title 47 of Code of Federal Regulation)開放600 MHz、700MHz、800 MHz、1800MHz中部分頻段及AWS H-block(1915-1920 /1995-2000 MHz),容許衛星通訊業者向地面行動通訊業者租用頻譜提供SCS服務。
SCS能讓用戶透過手機等既有的行動通訊終端接收衛星訊號,如Starlink目前正與T-mobile合作試驗,透過其第二代低軌衛星提供的手機直連(Direct to Cell)服務,能大幅延伸地面行動通訊系統的涵蓋區域。但為了最大程度防止有害干擾,FCC劃出6個獨立地理區域(Geographically Independent Area, GIA),地面行動通訊業者若要將頻譜出租予衛星通訊業者,除出租頻率需屬於SCS頻段外,還必須在一個GIA內擁有所有與出租頻率同頻的所有執照(all co-channel licenses),而衛星通訊業者僅能基於頻率租用協議,在該GIA內以次級使用的方式提供SCS服務。
雖然2023年底於杜拜落幕的世界無線通訊大會(WRC-23)才剛決議(Resolution com6/9 WRC-23)把「研究指配新頻率供衛星直接與地面行動通訊終端連接,以補充地面行動通訊的涵蓋範圍」納入WRC-27的議程項目 (Agenda Item 1.13 WRC-27),FCC就搶先開放SCS頻段,但表示會積極參與國際研究與活動,確保在國際電信聯盟(International Telecommunication Union, ITU)的無線電規則(Radio Regulation)下建立的SCS相關國際監理機制能取得重大進展,並隨著SCS市場的發展逐步開放能夠運用的頻段與應用場景,期能充分發揮衛星通訊與地面行動通訊整合的效益,互補不易涵蓋的區域並無縫銜接,達成「未來單一網路」(Single Network Future)的政策願景。
美國政府於今年(2012年)02月23日提出「消費者隱私保護法案」(Consumer Privacy Bill of Rights),總統歐巴馬認為:「為保護美國消費者網路上的個人資訊,清楚的法律已刻不容緩。電子商務的成功,必須讓消費者感到安全…,保護消費者的資訊能確保網路交易平台的成長」。 白宮提出的法案中明確點出下列幾項值得關注的議題:1、獨立控制:消費者有權了解自身資料被誰蒐集,以及他們如何使用這些資料。2、透明度:消費者能容易的了解隱私及資訊安全的訊息。3、考慮內文:消費者有權期待蒐集個人資料的組織,處理個人資料的方式能提供消費者知悉並且言行一致。4、安全:消費者的個人資料應受到安全可信任的保護。5、近用與正確性:消費者有權查詢與更正個人資料。5、集中蒐集:企業僅能有限度的蒐集消費者資訊。6、責任:消費者有權要求蒐集資訊的公司妥善保管個人資料並遵循「消費者隱私保護法案」。 美國商務部及資訊管理局會將在未來幾周進行細部的規劃,並尋求技術專家、業界、學者的意見,商務部將研擬相關具體可行的做法。
英國禁止限制級(R18級)情色影片以網路方式行銷為貫徹對未成年人的保護,避免未成年人以網路方式購買 R18 級情色影片,英國政府規定該類影片只能於獲有執照之供應商店販售,並僅有實際到店的顧客方得購買,禁止以郵購、網路或電話方式行銷,引發業者反彈,其中兩家公司遭受罰鍰處分後提起訴訟,日前上訴英國高等法院 (High Court) 主張此項限制對英國境內業者並不公平,境外業者可以規避此限制而仍於網路上販售 R18 級影片,將嚴重影響英國境內業者的發展。 該法院於五月二十三日作出決定認為此項限制為合法,蓋因網路購物難以確認購買者的年齡,強制規定必須到店購買將有助於確認購買者是否已達法定年齡,降低未成年人購得 R18 級影片的可能性。
強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。