美國加州於2019年9月通過AB-5法案(Assembly Bill No. 5),預計於2020年1月正式施行,本法目的在於強化零工經濟下非典型勞務提供者(如平台外送員)的權益保護,於加州現行勞動法令之基礎上,增訂關於各類勞務提供者之特別規定。
依本法主要規範,係推定替雇主(hirer)提供服務的工作者為僱傭契約關係下之僱員(employee),就最低工資、失業保險、勞災、醫療保險等面向,業者應對這些工作者提供等同受僱人之相關權益及保障;若要被例外認定為非成立僱傭關係之獨立承包商,則必須滿足不受公司於工作方面的控制指示、從事與公司通常業務範圍無關之業務、以及有實質接案自由等三要件,並要求業者應以上列標準判定其勞務提供者為僱員或獨立承包商,同時需於例外認定為獨立承包商時提出相關證明。
同時,本法亦考量到施行後其效力對既有營業形態之衝擊,分別採取以下措施:
本文為「經濟部產業技術司科技專案成果」
美國眾議院在今年9月7日,表決通過「2007年專利改革法案(The Patent Reform Act of 2007)」,由於該法案中有部分內容,如:申請優先制度與賠償數額的計算標準等內容,預計將影響美國專利制度發展與未來法院關於專利訴訟案件的進行,因此引發各界專注。 此次眾議院通過的「2007年專利改革法案」重點在於修改專利案件中關於侵權賠償的計算標準,將以該專利對整體產品的貢獻度為主,做出適當的賠償數額。另外還有限制上訴地點的提出等,而且其中影響最大的改採「申請優先制度」(First-to-File System)。 目前美國專利制度採行是所謂的「發明優先制度」(First-to-Invent System),但未來依據「2007年專利改革法案」的內容,將轉變為世界各國採行的「申請優先制度」,故被稱為是美國專利制度50年來最重大的變革。 本項法案的通過,各界正反面的意見都有,支持的人說這項法案的內容可以遏止專利訴訟的濫用,使企業間的經濟活動得以正常發展。但是反對的人認為,限制賠償數額、上訴地點等,將使利用專利為惡的人更形囂張,削弱專利保護的機制,反而會阻礙美國甚至是世界各國的專利制度發展。
歐盟執委會關切奈米科技對於食品安全之影響近年來,奈米科技已多方使用於食品製造業中,舉凡食品的殺菌、保存或食材的包裝等,皆為適例。然而,隨著奈米科技的影響層面逐漸擴大,無論係其功用的研發或風險的防範,仍有進一步研究之必要。 歐盟執委會(European Commission)根據2007年3月其新興健康風險科學委員會(SCENIHR)所提出之報告,認為應加強認識奈米科技對於食品安全之影響,遂邀請歐洲食品安全局(EFSA)就該領域提出科學看法。至2008年10月14日,歐洲食品安全局科學委員會即公布「奈米科技對於食品和飼料所引起之潛在風險(Potential Risks Arising from Nanoscience and Nanotechnology on Food and Feed Safety)」草擬意見,其內容係說明奈米科技應用於食品製造業之多種樣態、人為奈米材料(engineered nano materials,ENM)於食品或飼料製造過程中所產生之作用,以及判斷現有之風險評估方式能否合於需要。 該草擬意見歸結數項結論如下: (1) 因人為奈米材料之體積微小且具有高表面積,於人體吸收時較一般物質更容易產生反應。 (2) 關於化學物質於奈米尺寸下將產生何種變化,迄今無法做出令人滿意之科學論斷,因此就安全性與相關數據的累積,仍需要個別檢視。 (3) 建議應針對風險評估一事設置國際基準,且該基準可同時適用於人為奈米材料及一般化學物質。 (4) 食品與飼料中含有人為奈米材料者,於風險評估時應包括該材料特性之敘述,並進行毒理研究分析,使資訊蒐集更為完備。 由於人為奈米材料不確定之事項甚多,因此需要更豐富的資料加以釐清;而該草擬意見除提供歐盟執委會評估現行法制、研究可行措施外,亦向公眾廣徵回應;民眾可於2008年12月1日前,提供歐洲食品安全局相關科學證據或意見,待該局進行彙整後,將與歐盟會員國商討後續事宜。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。
從廣播電視節目概念之數位質變思考我國廣電法制之規範客體