加利福尼亞州(下簡稱加州)州長Jerry Brown於2018年9月30日簽署了一項新法案,規定在加州註冊成立的上市公司以及總部位於加州並在美國證交所上市的外國公司(如德拉瓦州公司),都必須在2019年底之前,於其董事會安排至少一位女性擔任董事,否則將面臨處罰;而此項新規定,亦使加州成為美國第一個要求上市公司將女性納入董事會的州。
此項規定並規定,在2021年年底前,若董事會的規模為6名以上,至少需有3名女性董事,若董事會的規模為5名成員,則至少需有2名女性董事,若董事會規模為4名以下董事,則至少需有1名女性董事。違反此項規定,將受到以下處罰:(1)首次違反處以10萬美元的罰款;(2)再度違反處以30萬美元的罰款,隨後再處以每次違反的罰款。
根據統計,日前在美國3000家最大的上市公司的董事會組成中,女性僅占其中18%,於2017年,更有624家上市公司的董事會中根本沒有女性。該法案表明,促進公司董事會性別平等不僅可以改善所有女性的職場機會,同時還能提高生產力,其依據是瑞士信貸(Credit Suisse)於2014年所作出的一項研究,該研究發現,擁有全男性董事會的公司,其平均股本回報率(Return on Equity, ROE)為10.1%,而擁有至少一名女性董事的公司,其平均股本回報率為12.2%。
根據彭博社(Bloomberg)於2019年的一項新分析,此項變革可為女性提供692個席次,並足以導致美國公司董事會整體性別平衡產生顯著的變化。此外,新紐澤西州(New Jersey)和馬薩諸塞州(Massachusetts)亦在考慮進行類似的立法,其他州也通過了不具拘束力的準則。根據統計,若其他州採用和加州相同立法,羅素3000(Russell 3000)中的公司需要在幾年內為女性開放3732個董事會席次,全國董事會的女性人數將增加近75%。
縱使該法案的反對者認為,這將增加企業改善種族和民族多樣性的難度,並質疑法案的適法性,然該法案的提出者仍認為,此一措施對於提升女性的代表權是必要的,相信當董事會組成多元化,女性的聲音能被聽到時,對整體勞動力的改善會是更好的。
「歐洲資料保護委員會」(European Data Protection Board, EDPB)於2025年9月12日發布《數位服務法》(Digital Services Act, DSA)與《一般資料保護規則》(General Data Protection Regulation, GDPR)交互影響指引(Guidelines 3/2025 on the interplay between the DSA and the GDPR)。這份指引闡明中介服務提供者(intermediary service providers)於履行DSA義務時,應如何解釋與適用GDPR。 DSA與GDPR如何交互影響? 處理個人資料的中介服務提供者,依據處理個資的目的和方式或僅代表他人處理個資,會被歸屬於GDPR框架下的控制者或處理者。此時,DSA與GDPR產生法規適用的交互重疊,服務提供者需同時符合DSA與GDPR的要求。具體而言,DSA與GDPR產生交互影響的關鍵領域為以下: 1.非法內容檢測(Illegal content detection):DSA第7條鼓勵中介服務提供者主動進行自發性調查,或採取其他旨在偵測、識別及移除非法內容或使其無法存取的措施。指引提醒,中介服務提供者為此採取的自發性行動仍須遵守GDPR要求的處理合法性,而此時最可能援引的合法性依據為GDPR第6條第1項第f款「合法利益」(legitimate interests)。 2.通知與申訴等程序:DSA所規定設通報與處置機制及內部申訴系統,於運作過程中如涉及個資之蒐集與處理,應符GDPR之規範。服務提供者僅得蒐集履行該義務所必須之個人資料,並應確保通報機制不以通報人識別為強制要件。若為確認非法內容之性質或依法須揭露通報人身分者,應事前告知通報人。同時,DSA第20條與第23條所規範之申訴及帳號停權程序,均不得損及資料主體所享有之權利與救濟可能。 3.禁止誤導性設計模式(Deceptive design patterns):DSA第25條第1項規範,線上平台服務提供者不得以欺騙或操縱其服務接收者之方式,或以其他實質扭曲或損害其服務接收者作出自由且知情決定之能力之方式,設計、組織或營運其線上介面,但DSA第25條第2項則宣示,線上平台提供者之欺瞞性設計行為若已受GDPR規範時,不在第25條第1項之禁止範圍內。指引指出,於判斷該行為是否屬 GDPR 適用範圍時,應評估其是否涉及個人資料之處理,及該設計對資料主體行為之影響是否與資料處理相關。指引並以具體案例補充,區分屬於及不屬於 GDPR 適用之欺瞞性設計模式,以利實務適用。 4.廣告透明度要求:DSA第26條為線上平台提供者制定有關廣告透明度的規範,並禁止基於GDPR第9條之特別類別資料投放廣告,導引出平台必須揭露分析之參數要求,且平台服務提供者應提供處理個資的法律依據。 5.推薦系統:線上平台提供者得於其推薦系統(recommender systems)中使用使用者之個人資料,以個人化顯示內容之順序或顯著程度。然而,推薦系統涉及對個人資料之推論及組合,其準確性與透明度均引發指引的關切,同時亦伴隨大規模及/或敏感性個人資料處理所帶來之潛在風險。指引提醒,不能排除推薦系統透過向使用者呈現特定內容之行為,構成GDPR第22條第1項的「自動化決策」(automated decision-making),提供者於提供不同推薦選項時,應平等呈現各項選擇,不得以設計或行為誘導使用者選擇基於剖析之系統。使用者選擇非剖析選項期間,提供者不得繼續蒐集或處理個人資料以進行剖析。 6.未成年人保護:指引指出,為了符合DSA第28條第1項及第2項所要求於線上平台服務中實施適當且相稱的措施,確保未成年人享有高度的隱私、安全與保障,相關的資料處理得以GDPR第6條第1項第c款「履行法定義務」作為合法依據。 7.系統性風險管理:DSA第34與35條要求超大型在線平台和在線搜索引擎的提供商管理其服務的系統性風險,包括非法內容的傳播以及隱私和個人數據保護等基本權利的風險。而指引進一步提醒,GDPR第25條所設計及預設之資料保護,可能有助於解決這些服務中發現的系統性風險,並且如果確定系統性風險,根據GDPR,應執行資料保護影響評估。 EDPB與其他監管機關的後續? EDPB的新聞稿進一步指出,EDPB正在持續與其監管關機關合作,以釐清跨法規監理體系並確保個資保護保障之一致性。後續進一步的跨法域的指引,包含《數位市場法》(Digital Markets Act, DMA)、《人工智慧法》(Artificial Intelligence Act, AIA)與GDPR的相互影響指引,正在持續制定中,值得後續持續留意。
專利戰爭:柯達告蘋果與宏達電 侵犯影像專利伊士曼柯達(Eastman Kodak)於1月10日向美國紐約州羅徹斯特(Rochester)聯邦法院與國際貿易委員會(ITC)提起訴訟,控告蘋果、宏達電侵犯5項有關數位相機影像處理之專利,意圖以法律訴訟作為擴大專利權價值的手段。 目前擁有超過1000項影像技術專利的131歲老店柯達,試圖出售1000多項專利權及提出專利訴訟,以挽回面臨破產邊緣的危機。柯達認為蘋果侵犯4項和數位相機影像相關專利(美國專利字號7,210,161、7,742,084、7,453,605、7,936,391),其中包含使用者可直接透過網路或e-mail傳送相機內照片的技術。而宏達電除被控侵犯上述4項專利之餘,柯達亦向國際貿易委員會申訴宏達電侵犯第5項的影像預覽技術專利(美國專利字號6,292,218),之前柯達方以該專利起訴蘋果和RIM。柯達要求蘋果立即停售侵權產品,同時支付3倍損失賠償。相關人士表示,柯達一直在尋找願意買下該公司影像專利的業者,起訴科技龍頭舉動之目的在於尋求好買家。 除此之外,柯達亦宣布進行業務重組,從3個部門合併成為2個部門,雖然對外宣稱乃為節省成本開支、盼能轉虧為盈,不過在可能破產的疑慮下,柯達內部氣氛相當低迷,出售技術專利仍無進展,加上大批主管相繼離職,過去兩周有3位董事辭職,上周四CCO(Chief Communications Officer)Gerard Meuchner宣佈離職之後,開始傳言柯達募資未成,未來數周可能就會宣布破產。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。
日本醫藥品醫療器材等法修正研析―以醫療應用軟體為中心