開放生物技術淺析

刊登期別
第20卷,第11期,2008年11月
 
隸屬計畫成果
經濟部技術處科專生技法制研究計畫成果
 

本文為「經濟部產業技術司科技專案成果」

※ 開放生物技術淺析, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3265&no=57&tp=1 (最後瀏覽日:2026/02/16)
引註此篇文章
你可能還會想看
德國首例因Twitter超連結的裁定出爐

  根據德國法蘭克福地方法院日前於4月20日的一則假處分裁定(Beschluss vom 20.04.2010, Az. 3-08 O 46/10),禁止被告以超連結方式,讓點取該鏈結的人,得以連結到刊登有損害原告商業信譽的文章頁面。   本件事實起源於一名匿名的網友在不同的網路論壇中,發表刊登有侵害原告商業信譽的言論,而曾經與原告有商業上往來的被告,利用自己Twiiter帳戶,發表超連結,並在鏈結網址下加上「十分有趣」的文字,讓看到該訊息的朋友,都可以點選鏈結連接到這些不利於原告商業信譽的文章、言論。原告因而向法院申請假處分裁定,禁止被告以超連結方式繼續為有損原告商業信譽的行為。 法蘭克福地方法院的這起裁定,被視為是德國國內第一起法院對Twitter等社群網站的警告,德國輿論各界也普遍認為,法院透過裁定對外明白宣示社群網站使用者往往誤認網路社群空間為「半私人場域(須加入好友才得以分享資訊、留言等)」,在自己的帳戶上發表心得、感想、分享文章等行為,還是有構成侵權責任的可能性。   該裁定出爐後,德國各界則開始討論被告設定超連結的行為是否構成網路侵權責任,持贊成意見者認為,即使該違法言論非被告本人所發表,被告設定超連結的行為,也讓自己與該違法言論「合而為一(zueigen gemacht)」,也就是,讓外界以為該違法言論就是被告本人所撰寫刊登;根據德國電信服務法(Telemediengesetz, TMG)第7條規定,內容提供者須為「自己」的言論負擔法律責任。   反對者則拿其他超連結的案例舉出,法院認定被告是否構成網路內容提供者的侵權責任,通常會檢視被告對於該違法言論的內容是否知悉、被告是否違背其檢查監督義務(Überprüfungspflicht),例如被告須為一定行為藉以與原撰文者劃清界線等。但因各該檢驗標準都係由法院依據個案加以認定,讓人無所適從,產生網路侵權行為的判斷標準過於浮動之疑慮,德國國會也因此著手進行電信服務法的修法。

日本循環經濟夥伴強化產官合作,攜手實現循環經濟

  日本經濟團體聯合會、環境省、經濟產業省於2021年3月設立「循環經濟夥伴」(JAPAN PARTNERSHIP FOR CIRCULAR ECONOMY,J4CE),其係為實現循環經濟(CE),而有賴政府、民間企業、國際機構等相關組織,建立劃時代的產官合作平台。   J4CE已成立一年,此段期間已進行三次產官間之對話,如於2021年12月21日係針對「實現循環經濟所新增之成本為何?」、「如何解決所生之成本?」為主題,提出促進循環經濟值幾個值得注意之企業事例。   例如:「新的商業模式」中,由損害保險日本興亞公司與Second Harvest Japan公司共同合作,當食品運送過程中發生事故,該食品被判定失去市場價值時,能將其捐贈給Second Harvest Japan公司,其捐贈花費之費用或損失,將由損害興亞公司負責給付其保險金,而Second Harvest Japan公司則將捐贈之食品提供給生活困窮家庭,其作法將有助社會支援、減少食品浪費;另有Panasonic等電器公司提供「照明」服務,但非燈泡的所有權出賣,而是以繳納使用費方式,提供LED燈給企業經營者,並提供相關修繕、動產綜合保險等服務,已達到省電效果、降低能源成本等。   而在2022年2月17日第3次產官對話中主要以「循環經濟的投資者觀點與資訊公開方法」為主題,為因應氣候變遷經濟產業省設立TCFD制度已受到企業經營者的高度關注,因此也期待J4CE在循環經濟中也能有相同作用。   然截至今日最大難題還是在於當使用再生資源應如何將同質材料作為資源來運用較為棘手,J4CE目前除了對研究開發給予支援外,亦考慮增加補助金及放寬其限制等方式進行。

世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引

  世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。

從「梅花烙」與「宮鎖連城」著作權侵權糾紛案看劇本實質近似之判斷方式

TOP