美國眾議院今年(2013)12月5日通過創新法案(The Innovation Act of 2013,H.R. 3309),主要目的在於填補美國發明法(Leahy-Smith America Invents Act,AIA)對於遏止專利濫訟之不足。創新法案中達成立法目標之核心手段主要有以下五個方向。
1.限縮提訴要件,要求提起專利訴訟,必須說明遭侵權之商品以及遭侵權之情形,特別是針對專利侵權之因果關係的說明,以不實施專利主體(Non-practice Patents Entity,NPE)不生產製造專利產品之特性遏止其專利濫訟。
2.訴訟費用的轉移,將相關成本轉移至敗訴方,並加諸合理之賠償費用。直接以訴訟成本之轉嫁來影響訴訟意願,然而此舉是否造成真正之專利所有者保護自身專利之障礙仍須觀察個案。
3.延遲證據開示,避免證據開示過早影響判決之結果。
4.要求專利所有者持續針對所有之專利進行資訊更新,使專利所有權透明化,以揭露NPE藉由空殼公司進行濫訟之行為。
5.創新法案另試圖使專利產品之實際製造商代替消費者面對專利侵權時相關產品之訴訟。
而眾議院通過創新法案的同時,參議院也有相類似的平行立法提案,稱為專利透明化與改進法案(The Patent Transparency and Improvement Act of 2013,S. 1720)。比較參眾兩院之法案版本後,可以發現兩者立法目的以及採取的手段均類似,主要都集中在於資訊的透明化以及訴訟成本的轉嫁,試圖藉由除去專利訴訟有利可圖的情形遏止專利濫訟的現象,但是參議院版本之法案是否真的能夠達到遏止專利濫訟之情形受到各界更多的爭議。
本文為「經濟部產業技術司科技專案成果」
日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。
Viacom 對YouTube提出之著作權侵權訴訟已被駁回美國法官駁回Viacom公司對Google之影片分享網站YouTube所求償美金10億元之訴訟,這個重要的勝利潛在地強化眾多網路服務提供者所獲得之法律保護。。 此一判決結果並非表示這場爭執3年的法律大戲已結束,因為紐約媒體大亨Viacom立刻承諾對於這判決提起上訴。如最後此一判決是被確認,將可能使得影片創作在現今這數位時代中更難受到保護。 Viacom是在2007年3月對Google提起此一侵權訴訟,內容指出其電影、電視節目及其他內容被廣泛的置於YouTube網站,涉及故意侵權。Google是在2006年10月以16億5千萬買下YouTube,於本訴訟中Google以其符合數位千禧年著作權法(Digital Millennium Copyright Act)之要求,即時取下經權利人所通知後之侵權內容作為抗辯。此案因涉及數位千禧年著作權法中之安全港條款,因而被受關注。 美國紐約南區地方法院法官Stanton於判決中,表示數位內容之著作權保護,非取決於網路服務提供者是否監控其所提供的服務,而在於其於接獲著作權權利人通知後之反應。更進一步表示YouTube已盡其責任,2007年初在接獲Viacom通知其網站約有10萬件受著作權保護影片後,幾乎於接到通知之下一個工作天內便將這些影片取下。並且表示Viacom於本案所提出之法律論點太薄弱。不意外地,Viacom對此不悅的表示:此一判決基本上是有缺點的,並試圖訴諸於美國第二巡迴上訴法院。 然而,Google的法務長Kent Walker表示這是一場重要的勝利,不僅只是對Google也是對全球幾十億利用網路溝通與經驗分享的使用者,並期待將焦點集中在鼓勵毎天於全世界YouTube網站張貼並瀏覽這數量龐大且驚人的想法與創作表達。
科技大廠被控剝削開放原始碼社群歐盟執委會( EC )一名資深官員 30 日大聲抨擊幾家美國的大型 IT 企業,指控他們對開放原始碼社群的發展產生過多影響。 EC 的資訊社會與媒體理事會軟體科技首長 Jesus Villasante 表示,如 IBM 、惠普( HP )和昇陽( Sun Microsystems )這些大公司,只是把開放原始碼社群當作承包商,而非鼓勵他們開發獨立的商業產品。 Villasante 在阿姆斯特丹舉行的荷蘭開放軟體大會( Holland Open Software Conference )中指出:「 IBM 會問顧客:你要專有或開放軟體?(如果他們選擇開放原始碼)然後他們會說:好,你要的是 IBM 的開放原始碼軟體。開放原始碼都將變成 IBM 、惠普或昇陽的財產。」 Villasante 說:「這些公司以承包商的模式,利用(開放原始碼)社群的潛能 – 當今的開放原始碼社群,等於是美國跨國企業的承包商。」他呼籲開放原始碼社群應發展更大的獨立性。 他表示:「開放原始碼社群需要看重自己,並瞭解他們對本身和社會都已作出貢獻。從他們瞭解自己是推動社會進化的一部分,並試圖發揮影響的那一刻起,我們才能朝正確的方向前進。」 Villasante 的看法令其他參與討論的成員頗為意外,包括 Sun One Consulting 的首席設計師 James Baty 。業界專家曾表示, IBM 等大公司對開放原始碼軟體的發展,作出相當大的貢獻,他們幫助說服企業與 IT 專業人員相信開放軟體與專有軟體一樣可靠。 Baty 並未直接回應 Villasante 的評論,但表示包括他的雇主在內的大型企業,都有責任奉獻給開放原始碼社群。昇陽捐助若干開放原始碼計劃,包括生產力應用軟體 OpenOffice.org 。 Baty 說:「有些公司僭取了開放原始碼社群的成果,其他公司則抱持他們必須奉獻的態度。(開放原始碼)應被視為一個機會,不是供人奪取和濫用的東西。」 Villasante 也利用稍早的演說,表達對歐洲軟體業的擔憂。他說:「我的看法是,歐洲目前根本沒有軟體產業 – 當今唯一的軟體產業只存在美國,未來或許還會出現在中國或印度。我們應該決定將來是否要建立歐洲的軟體產業。」 Villasante 認為開放原始碼是歐洲軟體產業發產的重要部分,但這種過程卻受到智慧財產遊說團體與傳統軟體業的壓力,及開放原始碼社群本身的分裂所壓抑。他說:「開放原始碼處於徹底的混亂 – 許多人作很多不同的東西。造成現在完全的混亂。」 一位聽眾指出, EC 也要為推動可能損害開放原始碼的軟體專利規章負責。 Villasante 回答,並非所有 EC 的成員都自動支持該規章。他說:「首先,我不負責軟體專利 – 軟體專利規章是由內部(市場)局長管理。資訊協會( Villasante 工作的單位)局長的意見,不一定與內部局長相同。」(陳智文)
澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)