歐盟法院(Court of Justice of the EU ,CJEU) 於2018年1月23日就Hoffman-La Roche and Others v Autorità Garante della Concorrenzae del Mercato案(Case C-179/16)作出先訴裁定(preliminary ruling)。本案涉及歐盟競爭法和藥品監管體系之間的相互影響。
案例事實為:羅氏藥廠的Avastin,原先為抗癌許可藥物,被臨床發現可用作治療老年性黃斑部病變(AMD),但並未經正式核准用於治療AMD,屬於仿單標示外藥物(off-label drugs)。而Lucentis係諾華藥廠一款獲得正式授權核准,作為治療 AMD的眼內注射藥物。
其中,諾華持有羅氏超過33%的股份,Avastin雖與Lucentis作用機理相似,但Lucentis價格卻相對昂貴,銷售方式由羅氏與諾華合作,諾華可從持股中間接獲得利潤。
兩家藥廠為了影響、降低Avastin的需求量及阻礙其分銷,雙方協議,對外聲稱兩種藥物含有不同活性成分,散布Avastin仿單標示外使用之安全性和有效性存在疑義的不實資訊。
2014年時,義大利競爭法主管機關(Autori tà Garante della Concorrenza e del Mercato, AGCM)認為羅氏和諾華兩大藥廠涉嫌藥品市場壟斷,違反歐盟運作條約(Treaty on the Functioning of the European Union, TFEU)第101(1)條,因而裁罰兩家藥廠。
羅氏和諾華不服裁罰,向義大利Lazio地方行政法院(Regional Administrative Court, Lazio)提起訴訟尋求救濟,遭到駁回;羅氏和諾華繼而向義大利國務委員會(Council of State)提出上訴,義大利國務委員會將此案提交歐盟法院,針對歐盟競爭法的解釋進行先訴裁定。
最後,歐盟法院認為兩藥廠之行為構成藥品市場的限制競爭,違反歐盟運作條約第101條之規定。
法院判決結果認為:
日本政府於6月29日召開關於賦予國民每一個人一個編號以便掌握每個人所得的「共通編號制度」的檢討會,會中決定將以利用於納稅與社會保障給付為軸心,朝引進制度推動的三種選擇方案。會中也討論到利用於減緩使低收入群負擔愈加沈重的消費稅的「逆進性」上。目前提出相關方案也有緩和參議院改選中有關增稅批評的目的。 從之後的1個月內會開始募集國民的意見後,到年底會將三種方案綜合為一案,以明年的一般國會會期中提出相關法案的方向推動。 有關共通編號制度,當然被指出會有個人資訊外洩與侵害隱私權的憂慮。菅直人首相在檢討會中提到「希望是立於國民本位制度上的來思考,也必須得到國民大眾的瞭解」。在檢討會中承認僅供稅務使用的A案、用於稅務與社會保障的B案及用於大範圍的行政領域上的C案,使用範圍各自不同的三種方案。 也出現希望所賦予的新編號能與目前正在使用中的「住民票號」能夠接軌的想法。利用編號制度正確掌握國民的所得情形,進而在增加消費稅之時,就有可能適切地對低收入群進行減稅與用現金補助。 消費稅是對包含生活必需品等大範圍的物品及服務課稅,所以愈是對將收入用於消費的比例龐大的低收入群會對增稅的負擔愈感沈重。 對減緩此一逆進性的有效制度,就是對有繳納的所得稅給予減稅,沒繳納所得稅的給予現金補助的「附給付的稅額扣減」。充分利用編號制度,將可補足反映所得所能退補的金額。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。