美國聯邦通信委員會通過新「5年軌道碎片規則」,以應對日益增加之軌道碎片風險

  美國聯邦通信委員會(Federal Communications Commission,FCC)於2022年9月29日以4票對0票通過新的軌道碎片(太空垃圾)規則,以求解決軌道碎片碰撞的成本風險,促進低地球軌道區域經濟利用。

  新軌道碎片規則將大幅縮短原本長達 25 年的衛星任務後處置指南,要求運行於低地球軌道區域(高度低於2,000公里)之太空載具,營運商應於其任務結束5年內進行「脫軌」處置,例如將衛星脫離軌道,使其落入地球大氣層並燃燒殆盡,或開發新的太空垃圾清理技術進行衛星回收,以降低衛星碰撞風險。且新軌道碎片規則除以美國許可發射的衛星為其適用對象外,同樣適用於欲進入美國市場之衛星系統營運商,因其向FCC之申請流程中,包含衛星任務長度及衛星脫軌時間表,故受系爭新規則拘束。

  FCC主席Jessica Rosenworcel表示,目前太空中有數千噸的軌道碎片,為了開創新的太空時代,解決軌道碎片問題是必要的,尤其是低地球軌道區域,新的5年軌道碎片規則即是旨在透由縮短任務結束後太空載具的處置時間;FCC專員Athan Simington亦表示,美國約代表50%的國際太空經濟,新軌道碎片規則將擴展到所有尋求進入美國市場的營運商,預期可成為全球營運商默示且無法抗拒之規則。

  考量系爭新規則將增加營運商之負擔及成本,FCC定有2年過渡期間,即2024年9月29日後發射的太空載具,方適用新的5年軌道碎片規則。

相關連結
※ 美國聯邦通信委員會通過新「5年軌道碎片規則」,以應對日益增加之軌道碎片風險, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8904&no=64&tp=1 (最後瀏覽日:2026/03/02)
引註此篇文章
你可能還會想看
販賣或製造色情光碟的人並非不可原諒之徒

色情光碟在澳洲高中校園內的網路流傳,且以一片美金五元的價格販售,其光碟的內容有女性被性虐待的畫面,例如撒尿在女生身上,或燒女生頭髮等。澳洲警方警告,任何學生觀看或下載這些色情影片將處以罰款。   維多利亞警局資深警官麥可‧亨瑞表示,「罰款並不能阻止這些色情的影片。」色情犯罪偵查小組為了調查色情光碟在校園流竄的問題,整夜和這些青少年進行面談,以了解色情光碟對他們的影響。麥可說:「這些色情光碟影響青少年對於性的想法,而且現在並沒有任何人因為此事被罰款,即使要罰款,也要有證據來界定罰款的金額。」   澳洲法院總理約翰‧南斯說道:「販賣或製造這些色情光碟是一種可怕且無恥的行為,但我們不能因為我們的感受而以刑罰作為報復的工具,因為這些青少年年紀尚輕,而且有些人是因為同儕的壓力而犯罪的,我們應該試著體諒並且確定他們的人生不會因此次事件而留下不可抹滅的印記。」    因為即使以法律對販賣或製造色情光碟的青少年施以懲罰,在他們人生的紀錄中留下一個可恥的印記,但這些懲罰對於改善他們的未來,並沒有任何助益。

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

區塊鏈電子存證法律效力於中國大陸首獲認可

  中國大陸於2017年8月在杭州設立網路法院(Internet court),專責處理網路購物、線上著作侵權等涉及網路爭議之案件。該法院網站設有「線上訴訟平台」,當事人在該平台使用手機號碼註冊帳號後,可遞交起訴狀和相應的證據材料,勾選所需依據的法律條文,系統將自動讀取該當事人之相關身分資訊、線上交易過程及各類表單資料。   近日該網路法院針對一線上著作權侵權案件,於審判過程中採用區塊鏈電子數據作為證據,等同認可區塊鏈電子存證之法律效力。由於區塊鏈作為去中心化的數據庫,每筆網路交易訊息皆同步於整個區塊鏈網路,因此區塊鏈有著難以竄改、刪除的特性。杭州網路法院將從第三方存證平台的資格、侵權網頁取證技術可信度及區塊鏈電子數據保存完整性進行審查,對本案電子數據之證據效力作出認定。   杭州網路法院認為,對於採用區塊鏈等技術進行存證之電子數據,應秉承開放、中立的態度進行個案分析認定,不得因為區塊鏈等技術本身屬於新型且複雜之技術而排斥或提高其認定標準。本案認可區塊鏈技術存證之法律效力,將對區塊鏈未來應用發展有很大的影響,隨著技術發展逐步成熟,產業應用的實際效果也愈發顯著。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP