日本公正取引委員會(下稱公取委,其性質等同於我國公平交易委員會)在2019年12月11日的定期記者會上表示,由於近年出現許多關於「智慧財產及knowhow保護不足」的聲音,因此將針對大型企業在與新創、新興企業進行共同合作或研究時,是否有濫用優勢地位不當掠取智慧財產權及專業知識技能(knowhow)的情形,啟動實況調查。
公取委將以書面方式,針對日本國內約1萬家創業10年以內的IT製造新創產業與大企業間交易之實況進行調查。相關報導整理了以下幾種常見的問題交易型態:
公取委表示,因為新興企業具有開放式創新的價值,在與大型企業進行合作時,對於國家產業發展及競爭力的提升,能發揮很大的貢獻。因此藉由實態調查,確保建構出一個自由、公平的良性競爭環境,並預計在2020年依據調查結果,擬定相關指引或方針。
澳洲法院近來持續在著作權相關案件中強調個人精神智慧投入的重要性,在Primary Health Care Limited v Commissioner of Taxation一案中([2010] FCA 419)再度強調了這樣的趨勢。在本案中,原告Primary Health Care為一信託受益人,透過信託取得醫療與牙醫業務,原告主張相關的醫療記錄文件如:處方籤、健康記錄、轉診信(referral letters)以及諮詢意見都有著作權,而於計算稅基時,應從信託的淨收益中加以扣除。 本案法官則指出,醫療記錄必須要達到語文著作的創作性實質要求,才能主張著作權的存在。針對本案的相關醫療記錄法官分別分析如下: 一、 諮詢記錄 所有的諮詢紀錄中,法官認定只有一份諮詢記錄受到著作權的保護,該份記錄從頭到尾只有一個作者,並以連續記述的方式呈現出個人精神智慧的投入;而本案中其他的諮詢記錄則有多個作者,僅僅標記姓名、醫療狀態、藥物治療以及生理、病理資料,難以呈現出個人精神智慧的表現,僅為病人的診斷與治療資訊,因此法官認定這些記錄無法受到著作權的保護。 二、 處方籤與健康記錄 作為本案證據的處方籤,只有姓名、藥物治療、劑量以及制式醫囑等資訊,而健康記錄則只有一連串的病史與醫療程序。因此,法官認定本案中所有的處方籤與健康記錄都不足以作為著作權的保護的客體。 三、 轉診信 法官認定在本案中的轉診信都有一些個人精神智慧的投入,儘管轉診信都是依循固定的格式,但基於轉診信的目的考量,固定的格式與內容都是合理的,因此本案中的轉診信都可以受到著作權的保護。 在Primary Health Care一案中,法官認定相關的醫療記錄文件並不必然一律受到著作權的保護,必須個別的加以認定。在醫療記錄中,只有當所有作者是能夠被辨識、特別是在只有單一作者的醫療紀錄中,能達到著作權法中語文著作對於個人精神智慧投入的要求時,才會受到著作權的保護。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
專利連結/專利扣合機制:國際新藥研發成果保護法制之新興討論議題我國藥廠普遍以產製學名藥為主,而新藥研發風險高且非一蹴可及,故當前藥品科專的研發重點以發展類新藥(redesign drugs)主軸,希冀透過類新藥研發的「成功經驗」,引導業界走出學名藥,投入更高層次藥品領域,推動產業發展。鑑於製藥產業乃是高度規管的產業,除了技術研發以外,也必須切實掌握相關的法規議題,避免因不諳法規致使研發投資錯置或浪費。 觀察國際新藥研發成果保護法制之發展趨勢,藥品查驗登記程序與專利有效性相互扣合的機制(patent-registration linkage),極可能在可預見的未來成為國際間討論的重要議題,鑑於藥品科專之研發補助方向已由學名藥延伸至新藥技術能量,實有必要瞭解政府投入資源鼓勵研發的類新藥,未來由業界承接後是否可能受到此一機制的影響。 藥品查驗登記程序與專利有效性相互扣合機制一般被簡稱為「專利連結」(patent linkage),「專利連結」亦有稱為「專利扣合」,概念上係指將學名藥(generic drug)的上市審查程序,與原開發藥廠之參考藥品(the originator reference product)的專利權利狀態連結在一起;進一步而言,一旦新藥通過主管機關的審查上市後,只要在該新藥相關的專利有效期間,主管機關即不應核准該新藥之仿製藥品上市。 專利連結乃是美國藥品法規與專利法交錯下特有之產物,然美國透過不斷地對其貿易伙伴訴求專利連結的重要性,在美國以外,已有多個國家於其藥品審查程序中建立與專利之連結關係,例如:加拿大、新加坡、澳洲等國。在藥品上市審查之過程中予以專利連結之目的,係為透過機制設計,確保主管機關不得在原開發藥廠之專利到期前核准學名藥上市。在美國法制下,專利連結的運作植基於四大核心概念:(一)新藥相關之專利資訊應於上市後系統化公開;(二)新藥專利有效期間內,主管機關不應核可後續申請者之上市申請;(三)盡可能於許可學名藥上市前解決專利有效性爭議;(四)鼓勵未涉及專利侵權之學名藥及早上市。 值得注意的是,美國專利連結法制所講的學名藥,包括狹義及廣義的學名藥,前者是指具有相同的活性成分、相同的劑型、治療相同適應症的藥品;後者則是指對已上市新藥的改良藥品,可見其概念上涵蓋我國當前鼓勵研發的類新藥。專利連結對於類新藥之影響,需視其如何上市而定,若類新藥是以NDA方式申請上市,雖然上市成本高,但其研發成果卻可以因為實施專利連結制度,享有更進一步的保護;另一方面,若廠商基於成本考量不願自行或委託他人進行臨床試驗,因而無法提出完整之NDA申請資料者,則專利連結將會對其產生衝擊。 綜上所述,雖然專利連結制度具有鼓勵新藥研發的作用,但由於我國當前製藥產業結構仍以中小型規模的學名藥為主,加上我國藥品專利之申請及取得者,90%以上為外國藥廠,故若實施專利連結,短期內勢將衝擊我國製藥產業,且美國、加拿大的實務運作經驗顯示,專利連結制度容易被藥廠濫用,因此我國在考慮是否建立此一制度之前,必須先就我國製藥產業的競爭情勢有所瞭解,並充分掌握我國產業結構與先進國家製藥產業之根本性差異,始能根據我國國情制訂權衡原開發藥廠與學名藥廠雙方利益,並保障公眾健康權益之法制。 當前最重要者仍是要提醒廠商尊重智慧財產之重要性,既然學名藥是要在專利到期後上市,則學名藥廠商在進行其新藥開發時,自應有完整規劃與佈局。開發狹義學名藥,其幾乎等同原開發藥廠的品牌藥,對於我國廠商技術能力之提升有限,故應鼓勵廠商投入廣義之學名藥(類新藥)之研發,如此不但有迴避專利之可能,亦可逐步累積我國產業之研發能量,則專利連結將不會成為其研發與競爭之阻力。
世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。