論智慧財產交易於破產發生時之法律因應機制

刊登期別
第19卷,第4期,2007年04月
 

本文為「經濟部產業技術司科技專案成果」

※ 論智慧財產交易於破產發生時之法律因應機制, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2297&no=57&tp=1 (最後瀏覽日:2026/02/26)
引註此篇文章
你可能還會想看
盜用無線網路溢波有罪乎?

Google, Yahoo質疑猶他州的商標法

  立法者在高科技經營者會議後表示,「美國猶他州的法律設置商標註冊規定,將針對網路廣告競爭者可能不強制限制,而這項規定在星期一就會生效。   Google、eBay、Yahoo、微軟等公司的負責人與立法者在星期三會面,並正式對此提出抗議。   執行長克拉克說到:「我希望我們在兩個月前就能和產業互動,這對我們來說情況較佳。」   法律允許任何公司去創造一個電子商標並阻止競爭者用這些商標,去避免利用這些關鍵字商標在搜尋引擎和其他網站上出現。   星期二立法機關一致通過此項保護商標法律,儘管州律師提出警告,他們將會在法院上推翻這項法律。   Google和其他網站允許競爭者有權利去投標商標或產品的名稱。廣告競爭者會因競標而顯現在搜尋結果的網頁上。   陳情者羅傑說到,在與立法者談判後,訴訟是最不可能的方式。我們所投入的是幫助政策制定者去察覺到立法機構需要被修正並且也許需要被廢除。   羅傑說當談判破裂,這兩位發言人問我們,假使我們有意願去看到可以達到他們的意願並且不會產生可能發生有害影響的方法。   克拉克不確定是否會推翻這項法律,但他說我們必須為此做些事。   伊適特曼說,「立法者正設法去阻止公司免於被偷竊商標,或阻止戲弄消費者使他們在買產品時產生混淆的情況。」

日本經產省與國交省提出「自動駕駛推動發展與制度規劃」檢討報告

  日本經濟產業省於2016年11月14日召開第二次「自動駕駛商業檢討會」,邀請產官學研各界對於自動駕駛未來國際標準的動向以及諸如協調領域、社會接受度、制度和基礎建設等方面所涉議題,交換意見。   該檢討會首先注意到美國、歐洲以及韓國對於自動駕駛各式規則或指引制定的討論。在協調領域方面,檢討會指出:關於自動駕駛所需的地圖資訊,應由各汽車製造商協調,透過合作機制或規範來確保資訊與資金提供的公平性。   社會接受度方面,檢討會則提出建議考量是否需要針對不擅駕駛的高齡者或初學者,提供有效系統的必要性。在制度與基礎建設方面,檢討會則指出:以現狀而言,自動駕駛服務的商業永續性仍不明朗,必須持續進行實證試驗。   此外,為減少交通事故與因應少子化,與汽車的ICT革命等議題,由國土交通省於同年11月25日設立「自動駕駛戰略本部」(自動運転戦略本部),並於12月9日召開第一次會議。   該次會議討論的範圍包括:為實現無人駕駛的環境整備、自動駕駛技術的研發、普及與促進,以及為實現自動駕駛的實證與社會試驗。   會議結論則由國土交通大臣指示針對「車輛的技術基準」、「年長者事故對策」、「事故發生時的賠償規則」、「大卡車列隊行走」、「非平地道路間以車站為據點的自動駕駛服務」等議題速成立工作小組。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP