什麼是「外太空條約」?

  外太空條約(Outer Space Treaty),為各國探索和利用包括月球和其他天體的外太空活動所應遵守原則之條約。聯合國大會於1966年12月17日通過該條約,在1967年 10月10日生效,目前絕大多數會員國已簽署並批准。外太空條約為國際提供了外太空的基本法律框架,包括以下原則:

  1. 探索和利用外太空間應為所有國家的福利進行,並以全人類為一個整體;
  2. 外太空應可供所有國家自由探索和使用;
  3. 外太空不受國家主權主張,不得透過使用、占領或其他方式據為己有;
  4. 各國不得以任何方式將核武器或其他大規模毀滅性武器放入天體軌道或外太空;
  5. 月球和其他天體只能用於和平目的;
  6. 太空人員應被視為人類特使並予救援;
  7. 各國應對包括政府或非政府進行的太空活動負責;
  8. 各國應對其太空物體造成的損害負責;
  9. 各國應避免外太空和天體遭受有害污染。

本文為「經濟部產業技術司科技專案成果」

※ 什麼是「外太空條約」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7981&no=64&tp=1 (最後瀏覽日:2026/04/19)
引註此篇文章
你可能還會想看
歐盟針對電子通訊網路及服務之管制架構規範進行公開徵詢

  基於維持「更好的管制」原則,歐盟執委會針對電子通訊管制架構之內容,公開徵詢社會大眾的意見。   此一電子通訊管制架構,係包括「架構指令」(2002/21/EC)、「發照指令」(2002/20/EC)、「網路接續指令」(2002/19/EC)、「普及服務指令」(2002/22/EC)及「隱私及電子通訊指令」(2002/58/EC)五個指令。除了此了指令之規範上,此次公開徵詢內容尚包括執委會有關「相關市場的建議」(C(2003)497)。   諮詢議題內容,則包括「管制架構的優劣點」、「現行管制架構是否能達到預期目標」、「現行管制架構如何改進」,以及特定之主題,如「範圍及目標」、「匯流及科技發展」、「頻譜管理」、「市場競爭及網路接續管制」、「執照核發及使用權」等。公開諮詢時間至2006年1月24日止。

日本農業數據利用的瓶頸與農業數據平台WAGRI的誕生

  日本從事農業者高齡少子化以致後繼無人,農業ICT(Information and Communication Technology)可使資深農民內隱知識外顯化而利於經驗傳承,例如已有地區透過除草機器人、自動運行農機等ICT農機,蒐集稻米收穫質量之數據進行分析,實作出施肥最適條件的成功案例。   然而成功案例之數據利用,延伸至其他地區實踐時卻顯得窒礙難行。首先是成本面,農場計測溫溼度等數據之感測器的設置、管理維護與通信等成本負擔,宛如藏寶洞前豎立之石門,不得其門而入。另一造門磚是農機或感測器等不同業者之系統服務互不相容,且數據無法互換共用,為求最適合特定地區與農作物之農業ICT組合,且能移植成功案例至其他地區,系統相容數據共用亦是當務之急。   日本農業數據協作平台(簡稱WAGRI),可為大喊芝麻開門之鑰,日本於2017年內閣府計畫支持下,由農業生產法人、農機製造商、ICT供應商、大學與研究機關等組成聯盟,一同建置具備「合作」(打破系統隔閡使數據得以相容互換)、「共有」(數據由提供者選定分享方式)、「提供」(由公私部門提供土壤、氣象等數據)三大功能之WAGRI,今年已有實作案例指出,活用WAGRI後,在數據蒐集與利用上的勞力與時間成本明顯縮減。   台灣農業同樣面臨高齡化、傳承之困境,日本WAGRI整合與共享數據的模式可作為我國發展農業ICT活用數據之參考。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

歐盟食品安全與標示近期發展-以歐盟法院Teekanne案為例

TOP