為釐清自駕車事故發生時,該如何適用日本《汽車賠償法》相關規定,國土交通省於2016年11月設置「自動駕駛損害賠償責任研究會」,檢討︰(1)自動駕駛是否適用《汽車賠償法》上運用供用者概念?(2)汽車製造商在自動駕駛事故損害中應負何種責任?(3)因資料謬誤、通訊不良、被駭等原因導致事故發生時應如何處理?(4)利用自動駕駛系統時發生之自損事故,是否屬於《汽車賠償法》保護範圍等議題,並於2018年3月公布研究報告。針對上述各點,研究會認為目前仍宜維持現行法上「運行供用者」責任,由具有支配行駛地位及行駛利益者負損害賠償責任,故自駕車製造商或因系統被駭導致失去以及支配行駛之地位及行駛利益者,不負運行供用者責任。此外,研究報告亦指出,從《汽車賠償法》立法意旨在於保護和汽車行駛無關之被害者,以及迅速使被害者得到救濟觀之,自動駕駛系統下之自損事故,應仍為《汽車賠償法》保護範圍所及。
本文為「經濟部產業技術司科技專案成果」
人工智慧目前正快速發展,不論是在醫療、農業耕作、製造生產或是氣候變遷等領域上,均帶來了許多改變,然而在人工智慧應用之同時,其也存在許多潛在風險如決策不透明、歧視或其他倫理與人權議題。 歐盟為求在全球競爭激烈的背景下,維護其於人工智慧相關領域的領先地位,並確保人工智慧技術於改善歐洲人民生活的同時,亦能尊重(respecting)人民權利,乃於今年(2020年)2月發布「人工智慧白皮書」(White Paper on Artificial Intelligence),將採投資及監管併用之方式,促進人工智慧應用與解決其相關風險,其對於未來促進人工智慧的應用(promoting the uptake of AI)與相關風險解決,計畫朝向建立卓越生態系統(An Ecosystem of Excellence)及信任生態系統(An Ecosystem of Trust)兩方面進行。 在建立信任生態系統中,歐盟提到因為人工智慧具有變革性的潛力,所以就信任的建立乃至關重要,未來歐洲人工智慧的監管框架除了須確保遵守歐盟法規外(包括基本權利保護與消費者權益維護之規範),對於高風險性之人工智慧應用,其將強制要求需於銷售前進行合格評定(mandatory pre-marketing conformity assessment requirement)。而有關高風險性之定義,歐盟於該白皮書指出須符合以下兩個要件: 考量人工智慧應用之一般活動特徵,其預計會有重大風險的發生,例如在醫療保健、運輸、能源和可能屬於高風險的公共領域;以及 在預期用途或應用上都可能對個人(individual)或企業(company)帶來重大的風險,特別是在安全性(safety)、消費者權益(consumer rights)與基本權利(fundamental rights)上。 歐盟委員會目前針對於以上白皮書之內容與附隨報告,將向公眾徵詢意見至今年5月19日。
澳洲立法強制Google及Facebook向媒體業者支付合理費用2020年4月20日澳洲政府要求澳洲競爭及消費者委員會(Australian Competition and Consumer Commission, ACCC)草擬強制性行為準則,以解決澳洲新聞媒體業者與數位平台(特別是Google及Facebook)間不對等的議價地位問題,由於2019年ACCC曾嘗試讓Google、Facebook自願與業者議價,並訂定相關程序準則,但事後成效不彰。為因應政府要求,ACCC於同年7月31日公布一份行為準則草案,「2020年修正草案—新聞媒體與數位平台強制性議價守則」(TREASURY LAWS AMENDENT (NEWS MEDIA AND DIGITAL PLATFORMS MANDATORY BARGAINING CODE) BILL 2020)。 此行為準則允許新聞媒體業者各自或集體向數位平台協議使用新聞內容的合理費用,請求費用的媒體公司至少須符合最低的編輯專業標準,並保持編輯獨立性,且每年營收須超過15萬澳元。雖然目前草案只適用於Google及Facebook,但未來也可能有其他數位平台列入適用範圍。 澳洲財政部長Josh Frydenberg表示,此準則設立的目的,是為了保護媒體公司著作內容的原創性,並確保業者能獲得合理的報酬,若Google及Facebook三個月內,無法與媒體公司達成報酬協議,將命仲裁員做出具有約束力的決定,違反規定者將會被裁處1000萬澳元的罰款。 此草案公布後,預計於8月28日完成磋商審議程序,並向議會提出最終草案版本,經議會通過後正式生效。由ACCC負責執行並管理該準則,而新聞媒體業者的資格則由澳洲通信媒體管理局(The Australian Communications and Media Authority)認定之。
微軟與阿爾卡特的專利官司勝負難分2007年2月份美國加州聖地牙哥法院甫宣判,微軟公司必須支付約15億美元(折合新台幣近500億元)給阿爾卡特(Alcatel-Lucent)公司,以解決微軟公司產品使用MP3技術所引發的糾紛。不過在3月初,另一位聯邦法官Rudi Brewster做出一項裁定,駁回阿爾卡特公司所有的主張,因為阿爾卡特公司主張微軟公司侵害一項其所有之有關語音編碼的技術專利。 微軟與阿爾卡特的專利官司可追溯至2003年,當時未合併前的朗訊(Lucent,二公司於2006下半年合併)公司控告PC製造商Dell與Gateway使用其所擁有的MP3技術專利。微軟公司後來被捲入這場專利糾紛,與阿爾卡特(Alcatel-Lucent)公司專利官司的糾紛日益擴大。二家公司爭訟的結果,在2月份的判決,根據2003年5月以來微軟公司所賣出的每台Windows PC數目,來計算出可能造成的損失,所以微軟公司才必須付出約15億美元的天價。 但是3月的這項裁定,卻阻止阿爾卡特公司趁勝追擊。在知識經濟的時代中,專利訴訟的結果甚至可能影響一家公司的興亡,相信沒有多少家公司可以輕易付出15億美元的賠償,如何確保不侵犯他人的智慧財產是很重要的課題。此外,爭訟的雙方都是業界的重量級廠商,不論結果如何,後續的發展都值得大家關注。
美國勞工部發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」文件,要為雇主和員工創造雙贏.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國勞工部(Department of Labor)於2024年10月發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」(Artificial Intelligence and Worker Well-Being: Principles and Best Practices for Developers and Employers)參考文件(下稱本文件)。本文件係勞工部回應拜登總統2023年在其《AI安全行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)中對勞工的承諾,作為行政命令中承諾的一部分,本文件為開發人員和雇主制定如何利用人工智慧技術開展業務的路線圖,同時確保勞工可從人工智慧創造的新機會中受益,並免受其潛在危害。 本文件以八項AI原則為基礎,提出最佳實踐作法,其重點如下。 1. 賦予勞工參與權(empowering workers):開發人員和雇主履行各項原則時,應該秉持「賦予勞工參與權」的精神,並且將勞工的經驗與意見納入AI系統整個生命週期各環節的活動中。 2. 以合乎倫理的方式開發AI系統:開發人員應為AI系統建立標準,以利進行AI系統影響評估與稽核,保護勞工安全及權益,確保AI系統性能符合預期。 3. 建立AI治理和人類監督:組織應有明確的治理計畫,包括對AI系統的人類監督機制與定期評估流程。 4. 確保AI使用透明:雇主應事先告知員工或求職者關於AI系統之使用、使用目的及可能影響。雇主及開發人員應共同確保以清晰易懂的方式公開說明AI系統將如何蒐集、儲存及使用勞工的個資。 5. 保護勞工和就業權利:雇主使用AI系統時,除應保障其健康與安全外,不得侵犯或損害勞工的組織權、法定工資和工時等權利。 6. 使用AI以提升勞工技能(Enable Workers):雇主應先了解AI系統如何協助勞工提高工作品質、所需技能、工作機會和風險,再決定採用AI系統。 7. 支援受AI影響的勞工:雇主應為受AI影響的勞工提供AI技能和其他職能培訓,必要時應提供組織內的其它工作機會。 8. 負責任使用勞工個資:開發人員和雇主應盡責保護和處理AI系統所蒐集、使用的勞工個資。