從廣播電視節目概念之數位質變思考我國廣電法制之規範客體

刊登期別
第16卷,第09期,2004年09月
 

※ 從廣播電視節目概念之數位質變思考我國廣電法制之規範客體, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=300&no=0&tp=1 (最後瀏覽日:2026/05/08)
引註此篇文章
你可能還會想看
特別301報告

  特別301報告(The Special 301 Report)是由美國貿易代表署(Office of the United States Trade Representative, USTR)公布之關於世界各國智慧財產權年度報告。1988年,美國國會修法增訂「特別301條款」,要求美國貿易代表署針對智慧產權保護或市場開放程度不足之國家,按嚴重程度於特別301報告中分列為「優先指定國家」(Priority Foreign Country)、「優先觀察名單」(Priority Watch List)和「一般觀察名單」(Watch List),並對「優先指定國家」啟動調查及協商談判。   美國每年對世界各國是否有效保護智慧財產權進行審查,並提出特別301報告。報告羅列範圍廣泛,包含: 世界各國智財權保護以及執法有效性; 網路銷售各種盜版及仿冒商標之商品情形; 世界各國貿易壁壘(market access barriers),例如貿易市場不透明、歧視性、或其他限制貿易的措施等,是否妨礙取得醫療保健(healthcare)或其他受智財權保護的資訊。   2019特別 301 報告(2019 Special 301 Report)於2019年4月公布。其中加拿大因簽署了《美墨加協定》(United States-Mexico-Canada Agreement, USMCA),實質改善加拿大智慧財產權環境,因而加拿大已從優先觀察名單轉為一般觀察名單。此外,中國連續15年被列入優先觀察名單,報告認為中國迫切需要進行基本的結構性改革,加強智財權保護。我國自1998年起被列入一般觀察名單,直至2009年除名,至今均未上榜,亦表美國肯認我國的智財保護發展。

世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引

  世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。

澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)

2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國CAFC透過Abbvie, Inc. v. Kennedy Inst.案確認顯而易見重複專利制度

TOP