從廣播電視節目概念之數位質變思考我國廣電法制之規範客體

刊登期別
第16卷,第09期,2004年09月
 

※ 從廣播電視節目概念之數位質變思考我國廣電法制之規範客體, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=300&no=57&tp=1 (最後瀏覽日:2026/01/24)
引註此篇文章
你可能還會想看
英國推動智慧電網 – 對隱私疑慮的回應與提供用戶能源使用量資訊之規劃

美國法院暫時禁止聯邦政府資助所有胚胎幹細胞研究

  美國哥倫比亞特區聯邦地方法院於今(2010)年8月23日作出暫時禁制令(preliminary injunction)的裁定,要求聯邦政府不得資助胚胎幹細胞(embryonic stem cell)之研究。本案是源自於2009年歐巴馬總統以行政命令(Executive Order 13505號)將小布希政府時代對胚胎幹細胞研究之限制予以放寬,讓科學家使用民間經費所製造之胚胎幹細胞株進行研究時,可申請聯邦經費的支持,美國國家衛生研究院隨後並提出人類幹細胞研究指導方針。   不過,對於此項新政策,部分保守團體及宗教團體也紛紛表示不滿,並進而支持成體幹細胞(adult stem cell)研究者James Sherley在內的原告,以衛生部違反聯邦法規,並且影響其申請經費為由,向法院提出訴訟。本案承審法官Royce Lamberth認為,1996年國會通過「Dickey-Wicker修正案」已禁止以聯邦經費資助毀壞人類胚胎的所有研究活動,而胚胎幹細胞研究必然伴隨著人類胚胎的毀壞,因此本案有違反Dickey-Wicker修正案之虞。在原告具有聲請暫時禁制令的要件下,包括勝訴可能性、無法彌補之損害、利害權衡以及公共利益等,裁定發出暫時禁制令。   這項裁定震撼了美國行政部門及科學界,過往對於Dickey-Wicker修正案,自柯林頓政府以降,行政部門均理解為聯邦政府不得資助毀壞人類胚胎之研究,但對於使用民間經費所製造之胚胎幹細胞株,則不在此限。因此本案法官之看法實已挑戰行政部門十多年來之共識,本案後續將如何判決,以及是否將促使行政部門提出法律修正案直接規範,將是後續觀察重點。

綠色管制風潮與挑戰 經濟部中小企業處推動輔導計畫

  歐盟於2003年通過WEEE及RoHS兩項環保指令,分別為有關「廢電子電機產品回收」(Waste from Electronic and Electrical Equipment, WEEE)及「禁用物質防制」(Restriction on the Use of Hazardous Substances, RoHS)兩項指令,明確規定行銷歐洲市場之電機電子產品,自去(2005)年8月及今年7月起,必須符合WEEE及RoHS禁用六項有害物質(鉛、鎘、汞、六價鉻、PBB及PBDE) 兩指令之規定,才能進入歐洲市場。簡單來說,WEEE係為確保在產品到達壽命終結時,其廢棄的零組件不致污染環境,同時部分材料還要能回收再利用;RoHS旨在規範產品的上游設計及中游製造段必須符合嚴格的環保規範,此兩項環保指令勢必對台灣每年輸往歐洲的電機電子產品,產生相當程度的衝擊,若是產品不符合相關規定,最嚴重將遭受到產品下架的處分。   對此,經濟部擬訂了「我國產業因應歐盟環保指令行動方案」,以今年6月底前輔導輸歐產值80%廠商符合RoHS指令要求為目標,而為了協助台灣中小企業因應新規定,中小企業處將輔導320家中小企業進入綠色材料與供應鏈體系,並與國際綠色供應鏈接軌,提高中小企業綠色競爭力。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP