美國加州於2019年9月通過AB-5法案(Assembly Bill No. 5),預計於2020年1月正式施行,本法目的在於強化零工經濟下非典型勞務提供者(如平台外送員)的權益保護,於加州現行勞動法令之基礎上,增訂關於各類勞務提供者之特別規定。
依本法主要規範,係推定替雇主(hirer)提供服務的工作者為僱傭契約關係下之僱員(employee),就最低工資、失業保險、勞災、醫療保險等面向,業者應對這些工作者提供等同受僱人之相關權益及保障;若要被例外認定為非成立僱傭關係之獨立承包商,則必須滿足不受公司於工作方面的控制指示、從事與公司通常業務範圍無關之業務、以及有實質接案自由等三要件,並要求業者應以上列標準判定其勞務提供者為僱員或獨立承包商,同時需於例外認定為獨立承包商時提出相關證明。
同時,本法亦考量到施行後其效力對既有營業形態之衝擊,分別採取以下措施:
本文為「經濟部產業技術司科技專案成果」
美國哥倫比亞特區聯邦地方法院於今(2010)年8月23日作出暫時禁制令(preliminary injunction)的裁定,要求聯邦政府不得資助胚胎幹細胞(embryonic stem cell)之研究。本案是源自於2009年歐巴馬總統以行政命令(Executive Order 13505號)將小布希政府時代對胚胎幹細胞研究之限制予以放寬,讓科學家使用民間經費所製造之胚胎幹細胞株進行研究時,可申請聯邦經費的支持,美國國家衛生研究院隨後並提出人類幹細胞研究指導方針。 不過,對於此項新政策,部分保守團體及宗教團體也紛紛表示不滿,並進而支持成體幹細胞(adult stem cell)研究者James Sherley在內的原告,以衛生部違反聯邦法規,並且影響其申請經費為由,向法院提出訴訟。本案承審法官Royce Lamberth認為,1996年國會通過「Dickey-Wicker修正案」已禁止以聯邦經費資助毀壞人類胚胎的所有研究活動,而胚胎幹細胞研究必然伴隨著人類胚胎的毀壞,因此本案有違反Dickey-Wicker修正案之虞。在原告具有聲請暫時禁制令的要件下,包括勝訴可能性、無法彌補之損害、利害權衡以及公共利益等,裁定發出暫時禁制令。 這項裁定震撼了美國行政部門及科學界,過往對於Dickey-Wicker修正案,自柯林頓政府以降,行政部門均理解為聯邦政府不得資助毀壞人類胚胎之研究,但對於使用民間經費所製造之胚胎幹細胞株,則不在此限。因此本案法官之看法實已挑戰行政部門十多年來之共識,本案後續將如何判決,以及是否將促使行政部門提出法律修正案直接規範,將是後續觀察重點。
聯邦巡迴上訴法院確認同為蘋果供應商的玉晶光並未侵害大立光的專利權2013年6月4日大立光在北加州聯邦地方法院起訴玉晶光,主張玉晶光生產的八款透鏡侵害其五件美國專利。就部分的產品玉晶光請求法院裁判無引誘侵權,北加州聯邦地方法院部分准許了玉晶光的請求,之後大立光就無引誘侵權部分上訴聯邦巡迴法院敗訴。 大立光未能主張直接侵權,因為玉晶光絕大部分的透鏡是銷售給蘋果在亞洲的供應鏈中的鏡頭模組廠,鏡頭模組廠再販售給亞洲的系統組裝廠,最後由系統組裝廠整機出售給蘋果,再由蘋果販賣給美國的消費者。這個過程中玉晶光並非唯一的透鏡供應商,大立光也是供應商之一甚至供應量大於玉晶光。 法院贊同並認為引誘侵權是行為人(本案中為蘋果)被引誘而有直接侵權的證據,但大立光在本案中無法證明玉晶光有引誘侵權責任,因玉晶光沒有在美國有直接製造、使用、銷售、許諾銷售或進口的行為,故不構成直接侵權,而玉晶光在本案中並不爭執侵害大立光的專利權,但主張並非是引誘侵權人。 大立光另提出的主張是蘋果的供應鏈是「隨機選擇」大立光或玉晶光的透鏡,因此推論蘋果在美國的產品採用玉晶光的比例,等於蘋果在全世界的產品採用玉晶光的比例,進而認定蘋果在美國有直接侵權。唯聯邦巡迴上訴法院認為大立光關於「隨機選擇」這個主張,沒有提出來自供應鏈的相關證據,所以沒辦法證明蘋果在美國的產品有使用玉晶光的透鏡。大立光可再上訴美國最高法院。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國無線電頻譜管理改革政策(上)-政策源起與目標 經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。