印度藥廠、非政府組織對未來將簽屬之歐盟-印度FTA表示反對

  今(2011)年3月中旬,印度製藥業者代表及相關非政府組織團體共同對外表示,就印度與歐盟即將簽署之自由貿易協議(Free Trade Agreement;簡稱FTA),將正式採取反對之立場。

  關於上述印度製藥業者代表及非政府組織團體之所以表示反對歐-印兩國簽署FTA之理由,其主要,乃係因歐盟方面為保障歐盟自身製藥業者本身之利益而擬於日後雙方將所簽署之FTA文件中,設置「資料專屬」條款而生;對此,代表印度境內多家藥廠之印度製藥協會(Indian Pharmaceutical Alliance)秘書長Dilip Shah表示:「目前歐盟方面正利用各種高壓與不正之手段,來迫使印度政府同意其擬置入之資料專屬保護條款」;但歐盟官員John Clancy卻解釋:「歐盟政府之所以擬於將簽訂之FTA中設置資料專屬條款,所寄望者,無非是要為歐盟境內製藥業者,尋求一個平等互惠之立基點而已;換言之,歐盟政府所為之一切,乃是基於要為印度與歐盟兩國業者打造一個公平合理之貿易商業環境」,另外,其還強調:「針對資料專屬條款之簽訂,原則上應在雙方達成共識之前提下進行」。

  雖然歐盟方面目前已嘗試作出如上解釋,但印度國內各界似仍普遍認為,一旦同意將資料專屬條款納入,未來除將嚴重影響廣大用藥病患近用低價救命藥品之權益外,亦將大幅限制新興國家產製學名藥品之能力;故包括HIV病患及其他印度民間團體共計超過2000名抗議者,於今年3月2日時,皆紛紛走上新德里市中心街頭,對歐-印即將簽署FTA表達其強烈之抗議與不滿;足見,該項條款將造成之實質影響,絕非歐盟單方三言兩語即可輕描淡寫地帶過;而最終之談判結果,是歐盟方面將作出合理之讓步?還是印度方面為挽最大貿易夥伴之心,而終以犧牲廣大病患及國內製藥業者權益來作為可能之對價?是破局?還是完滿結局?則皆有待後續觀察,方見分曉。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 印度藥廠、非政府組織對未來將簽屬之歐盟-印度FTA表示反對, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5457&no=64&tp=1 (最後瀏覽日:2026/05/07)
引註此篇文章
你可能還會想看
汽車經銷公司營業秘密案顯示,僅資安手段不足以構成營業秘密的保密措施

本文參照2025年3月21日紐約東區地方法院的Superb Motors Inc. v. Deo一案,提醒企業:在數位化與資料外洩風險日增的時代,即使資訊具有高度價值,若僅採取防火牆(Firewall)、帳號密碼之技術手段,而未採取具體之書面規範或契約之營業秘密保密措施者,法院仍可能認定不足以符合營業秘密之合理保密措施要件。 本案源於2023年8月16日,Superb汽車經銷公司控訴前股東Deo離開公司後,擅自使用其客戶名單與核心系統Dealer Management System(下稱DMS),協助競爭對手拓展業務、挖角員工,並導致前公司客戶流失。Superb公司主張,公司投入逾12萬美元整合DMS系統,且以150萬美元的廣告與行銷策略蒐集並以多年經驗建構完整的客戶資料庫,屬於具競爭優勢的關鍵資產。 法院認為,Superb公司僅以防火牆、帳號密碼限制資訊存取,期待員工自發性保密,而未提供任何形式的保密協議或明確政策文件,此舉不足以構成合理保密之手段。法院認為,營業秘密保護法所要求的保密措施,需具備可執行的契約條款,例如:保密協議或公司內部保密政策規範。 為助於訴訟舉證、減少因人力流動可能發生的資料外洩風險,企業不能僅依賴科技工具,而應積極主動地搭配企業政策與契約等法律文件。參考美國實務,建議企業採取下列營業秘密管理作法: 1.與有權接觸敏感資訊之員工、顧問簽訂保密協議,且企業應定期檢視與修訂保密條款,以確保條款符合最新的勞動法相關要求並具備可執行性。 2.建立公司內部保密制度與定期教育訓練,以確保員工理解公司要求之保密義務。 本案顯示出法院對「營業秘密合理保密措施」認定的標準,不僅留意保密技術複雜性,更著重於企業採取的保密措施(如保密契約)是否具有法律上的拘束力。 資策會科法所創意智財中心於2023年發布之「營業秘密保護管理規範」已涵蓋前述美國實務建議之管理作法,我國企業如欲精進系統化的營業秘密管理作法,可以參考此規範。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

歐洲化學品管理署(ECHA)下的社會經濟分析委員會已開始針對限制性措施展開風險管理及成本利益分析等相關工作

  今年(2008)4月2-3號,歐洲化學品管理署(ECHA)下,為社會經濟分析(Socio-economic)目的所設置之委員會,於赫爾辛基(Helsinki)舉行了首次的會議。歐洲化學品管理署執行長Geert Dancet在其公開聲明中提到:「對社會經濟分析委員會(SEAC)之挑戰,是因其被REACH法規範所引用而產生;而此種模式,亦將成為歐盟化學物質立法制度下的一項新工具。其還強調,應同時平等地考量並兼顧到產業、環境及健康等三方面因素,並以前三項因素皆已臻衡平之方式來進行交易」。   此外,於REACH法規範下,該委員會於限制與管理流程上,亦扮演著重要角色。其將掮負起為該署準備關於:申請管理、限制措施建議案提出、以及其他在REACH法規範下與化學物質管理有關之立法措施所將可能導致歐洲社會經濟方面之影響與衝擊等問題,提出相關意見。而目前,就於化學品範圍內,對可能之立法措施未來所將產生的衝擊進行社會經濟面之評估而言,此舉,實為一新且未知的一塊領域。   此外,透過此次會議,除決定了該委員會日後運作之模式外,也達成共識ㄧ致認為:透過此種模式,將能夠保障委員會運作之透明性;同時,還一併能兼顧到它的獨立性,及相關資料的隱密性。目前,該運作模式將待歐洲化學品管理署董事會議正式審核通過後,即開始生效。最後,社會經濟分析委員會於2008年間規畫,擬將舉行兩次會議,而下一次的會議則已預定將於10月份召開。

日本要求半導體等重要技術技轉前須進行報告,以強化技術管理

日本經濟產業省下之貿易經濟安全保障局,於2024年9月公布「建立強化技術管理之新官民對話框架」文件(技術管理強化のための新たな官民対話スキームの構築について),指出在目前複雜的地緣政治情勢下,企業難以獨自進行技術管理,故須透過強化官民對話,讓雙方可共享現況及問題,俾利政府檢討管理措施。 經產省為強化技術管理,擬修正依《外匯與外國貿易法》(外国為替及び外国貿易法,以下簡稱外為法)授權制定之省令及告示,要求業者於技轉「重要技術」時,須依外為法第55條第8項進行事前報告,以利後續透過官民對話達成共識。經產省強調,上述規定目的不是禁止技術移轉,而是進行適當之技術管理,故原則希望能透過官民對話來解決問題。惟若在雙方對話後,經產省認為有技術外流之虞時,仍會要求業者申請許可。 根據經產省於2024年9月6日公布之省令及告示修正案,以下4大領域10項技術被列為「重要技術」: 1.電子元件:積層陶瓷電容(積層セラミックコンデンサ(MLCC))、SAW和BAW濾波器(SAW及びBAWフィルタ)、電解銅箔、介電質薄膜(誘電体フィルム)、鈦酸鋇粉末(チタン酸バリウム粉体)。 2.纖維:碳纖維(炭素繊維)、碳化矽纖維(炭化ケイ素繊維)。 3.半導體:光阻劑(フォトレジスト)、非鐵金屬材料(非鉄金属ターゲット材)。 4.電子顯微鏡:掃描式電子顯微鏡(走査型電子顕微鏡(SEM))、穿透式電子顯微鏡(透過型電子顕微鏡(TEM))。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

TOP