多普達在2004年即將結束時接到了北京市海澱區人民法院的判決,原告北京央視公?資訊有限公司在一審中勝訴,不過,多普達總裁楊興平在今天的一個公開場合表示已經在準備上訴,“多普達有信心打贏這場官司。”楊興平說。
台灣手機廠商多普達於2004年3月在大陸推出型號為535之智慧型手機,此款手機具有強大的視頻功能,可藉由超連結收看網路電視。而多普達也在該款手機上內建了大陸中央電視台的頻道鏈結,讓使用者可以收看CCTV-新聞、CCTV-4、CCTV-9三個頻道的節目。不過,與中央電視臺簽有授權於電信網路傳播合同的央視公?,於2004年8月13日控告多普達侵權,要求多普達財償人民幣50萬元。
此案於2004年12月30日經海澱區人民法院判決多普達公司侵害央視公?公司在電信領域所取得的中央電視臺節目傳播權,應停止使用CCTV-新聞、CCTV-4、CCTV-9節目、在相關媒體上道歉,並賠償央視公?公司經濟損失共計37.1萬元。而且,法院還要求多普達的經銷商停止銷售該款手機。多普達則決定向北京市中級人民法院提出上訴。
中國科學技術部與中國科學院等六個部門,於2011年12月8日聯合發布《國家中長期生物技術人才發展規劃(2010-2020年)》(以下簡稱「生技人才規劃」),期藉由具體政策措施之推動,充實國內生技人才資源,以促進生物技術及其產業蓬勃發展。 從中國國務院於2006年所提出的《國家中長期科學和技術發展規劃綱要(2006-2020年)》到科技部最近發布的《國家十二五科學和技術發展規劃》,均揭示「生物技術」為中國科技發展的重點領域。然而,現階段中國生技發展卻面臨了人才瓶頸,包括缺乏高層次創新人才、缺乏優秀創業型人才、人才資源開發投入不足,以及人才發展體制障礙待破除等問題,本規劃便在這樣的背景下誕生。 針對前述生技人才缺乏問題,生技人才規劃以「2020年時將中國打造成生物產業大國」為總體目標,分兩階段達成充實、培育生技人才的目的。第一階段為2011年至2015年,主要目標係在國內培育、造就一定規模的科技人才與創新團隊;第二階段為2016年至2020年,主要目標則為提高中國整體生技人才的素質,並建置5到10個具國際水準的國家生技實驗室。為達成前述目標,生技人才規劃宣示未來將分別實施以下各項政策措施,包括:持續給予優秀人才科研經費支援、鼓勵支持生物技術人才創業、加速生物技術人才在產學研各領域間的流動、制定優先支持生物產業技術人才發展的財政金融政策,以及吸引海外高層次生物技術人才回國創業或參與重大科研計畫等。 自2006年以來,中國於各個重大科技與產業政策規劃中,均將生物技術列為國家重點發展領域,顯見中國對於生技產業的重視,而根據往例,中國在發布重大國家政策規劃綱要以後,國務院各部門隨即會頒布相關法令及配套措施,以達成規劃綱要中所揭示的各項發展目標。因此,「生技人才規劃」頒布後,其後續相關的人才引進法制架構將如何呼應、達成綱要所訂的總體發展目標,值得持續觀察。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。
資通安全法律案例宣導彙編 第1輯