本文為「經濟部產業技術司科技專案成果」
南非國會近期推動數位匯流法案 (Convergence Bill) 之立法,其中,色情內容是否應於數位匯流立法之中加以定義與規範,引起不同的看法。有專家指出,色情內容超出了數位匯流法案所應規範之主題。亦有專家指出,如定義與規範不當,反而會引發出更多的問題。 在數位匯流與數位內容成為趨勢的今天,我們對於數位匯流與數位內容都從正面的角度來加以觀察,並予以期待。然而,數位匯流的只是傳播媒介,數位內容標示的也只是承載內容的載體。我們希望什麼樣的數位內容?負面的數位內容 ( 如色情內容 ) 在未來數位匯流與數位內容的發展趨勢中,應被放置在一個怎樣的位置,應是值得我們加以思考的。
莫德納提告輝瑞COVID-19疫苗侵害其專利,判決結果或可能影響專利承諾發展莫德納公司(Moderna)於2022年8月26日對輝瑞(Pfizer)/BNT公司提出專利侵權訴訟,主張輝瑞之Comirnaty疫苗侵害其RNA平台技術,引發各界關注,因此舉不僅為兩大COVID-19疫苗藥廠之間之專利戰爭,同時可能引發莫德納違反其專利承諾(Patent Pledge)之疑慮,從而衍生專利承諾效力問題之爭議。 莫德納曾於2020年10月8日於該公司官網上自願承諾:「於大流行繼續的同時,莫德納不會針對那些旨在製造對抗大流行疫苗的公司,主張我們與COVID-19相關之專利」(第一次專利承諾),而後於2022年3月7日,莫德納更改其承諾(第二次專利承諾),永遠不會針對在Gavi COVAX預先市場承諾(Advance Market Commitment, AMC)中之92個中低收入國家、或為這些國家生產疫苗之公司主張莫德納之COVID-19疫苗專利,且前提是生產之疫苗僅用於AMC之92個國家。莫德納對於輝瑞侵權訴訟之聲明亦與更新後之承諾一致,其僅請求2022年3月8日後輝瑞COVID-19疫苗侵害莫德納專利之損害賠償,而未請求2022年3月7日前之損害賠償責任。 惟莫德納單方面更改其專利承諾並提起訴訟之行為仍引發眾多爭議,主要包括莫德納第一次專利承諾是否有法律上之拘束力、後續更改其專利承諾之行為是否有效、這些行為之影響為何等問題。就第一次專利承諾而言,目前有認為其具有法律上之拘束力,其可能可被視為一種「公共授權」(public license)行為,為專利權之書面授權且適用於任何希望接受授權者;退步言之,即使該授權未成立,莫德納基於「承諾禁反言」(promissory estoppel)之法理,亦不能隨意撤回該承諾或追溯撤銷其已授予之權利;且由於第一次承諾中所述之「大流行繼續(while the pandemic continues)」之條件在世界衛生組織未宣告疫情結束之前仍然存續,該承諾應仍繼續有效。惟亦有認為莫德納應得以第二次專利承諾可取代第一次專利承諾,而自2022年3月起主張其專利權者。 本案針對專利承諾之效力引發許多討論,未來於此訴訟案件中法院如何評價莫德納之專利承諾以及對於其效力之認定,亦可能影響現有之專利承諾生態:若企業可任意收回、更改其承諾,並於後續得以訴訟手段提告運用其專利之第三人,或有可能影響公眾對於專利承諾信任或利用意願;而若專利承諾不能任意修改,企業須受自身之承諾嚴格拘束,則未來或許即使社會遭遇危機,企業亦不敢貿然發布專利承諾應對危難。因此,此案後續發展將對整體專利承諾與授權影響重大,值得持續進行關注及了解。
簡評國家通訊傳播委員會公佈之「衛星廣播電視使用插播式字幕認定原則」 德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。