美國加州「對話機器人揭露法案」

  美國加州議會於2018年9月28日通過加州參議院之對話機器人揭露法案(Bots Disclosure Act, Senate Bill No. 1001)。此一法案於美國加州商業及專門職業法規(Business and Professions Code)第七部(Division)第三篇(Part)下增訂了第六章(Part)「機器人」乙章,擬防範「利用對話機器人誤導消費者其為真人同時並誤導消費者進行不公平交易」之商業模式,本法案將於2019年7月1日正式生效。依此法案,企業如有使用對話機器人,則應揭露此一事實,讓消費者知悉自己是在與對話機器人溝通。

  美國加州對話機器人揭露法案對於「機器人」之定義為全自動化之線上帳戶,其所包含之貼文、活動實質上並非人類所形成。對於「線上」之定義為,任何公眾所可連結上之線上網站、網路應用軟體、數位軟體。對於「人類」之定義為自然人、有限公司、合夥、政府、團體等其他法律上組織或擬制人格。如業者使用對話機器人進行行銷、推銷時,有揭露其為對話機器人之事實,將不被認定違反對話機器人揭露法案,但揭露之手段必須明確、無含糊且合理可讓消費者知悉其所對話之對象為非人類之機器人。值得注意者為,美國加州對話機器人揭露法案,針對「美國本土造訪用戶群在過去12月間經常性達到每月10,000,000人」之網站,可排除此規定之限制。

  本法案僅課予業者揭露義務,至於業者違反本法之法律效果,依本法案第17941條,需參照其他相關法規予以決定。例如違反本法案者,即可能被視為是違反美國加州民法揭露資訊之義務者而需擔負相關民事賠償責任。最後值得注意者為,本法案於第17941條針對「利用對話機器人誤導公民其為真人同時影響公民投票決定」之行為,亦納入規範,亦即選舉人如有利用對話機器人影響選舉結果而未揭露其利用對話機器人之事實時,依本條將被視為違法。

本文為「經濟部產業技術司科技專案成果」

※ 美國加州「對話機器人揭露法案」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8203&no=55&tp=5 (最後瀏覽日:2026/02/21)
引註此篇文章
你可能還會想看
美國及其他CRI成員共同發布國際反勒索軟體倡議聯合聲明,說明其關鍵成果與未來展望

美國及其他參與國際反勒索軟體倡議(International Counter Ransomware Initiative, CRI)之50個成員(含國家及國際組織),於2023年10月31日至11月1日召開第三次大會,並且發布聲明表示:應積極建立對抗勒索軟體之集體韌性(collective resilience)、共同合作降低勒索軟體之散布能力、追究相關行為人之法律責任、制裁非法資助勒索軟體之組織、與私部門合力防止勒索軟體攻擊。 CRI於2023年之關鍵成果主要可分以下三個面向: 一、加強資安管理能力 對CRI新成員提供指導及戰術培訓,例如由以色列督導約旦,以確保新成員之資通安全。此外,亦發起利用人工智慧打擊勒索軟體之計畫。 二、促進資訊共享 設立可即時更新之資訊共享平台,使CRI成員得以迅速分享資安威脅指標。如立陶宛之惡意軟體資訊共享計畫(Malware Information Sharing Project, MISP)、以色列及阿拉伯聯合大公國之水晶球平台(Crystal Ball platforms)。 三、反制勒索軟體使用人 CRI發布前所未有之共同政策聲明,闡明成員不應支付贖金,且創設成員間共享之加密貨幣錢包黑名單(blacklist of wallets),以便揭露勒索軟體使用人之非法帳戶,並公開與犯罪組織之金流紀錄。另,CRI於2024年起將持續致力發展前述聲明提及之目標,並優先向潛在成員進行宣導,透過提供量身訂做之資安應變能力培訓,滿足潛在成員之需求。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

澳洲聯邦法院判決藥品仿單受著作權保護

  澳洲聯邦法院近日在Sanofi-Aventis Australia Pty Ltd與Apotex Pty Ltd一案中([2011] FCA 846),首次針對記載藥品資訊的仿單著作權侵權問題進行處理。法院判決Sanofi的Leflunomide藥品仿單含有Sanofi員工相當的知識與判斷,係Sanofi員工的共同著作,受到著作權的保護。法院並進一步判決Apotex的Leflunomide藥品仿單重製了Sanofi 的Leflunomide藥品仿單的重要部分,在係爭案件中,亦無法推斷出有默示的授權,因此判決Apotex侵犯了Sanofi的Leflunomide藥品仿單的著作權。   儘管藥品仿單的複雜問題目前仍備受爭議與討論,澳洲將在醫療物品修正法案(Therapeutic Goods Legislation Amendment (Copyright) Act 2011)中,針對相關問題加以釐清。前述修正案針對1968年著作權法(Copyright Act 1968)新增44BA條,該條項賦予在1989年醫療產品法(Therapeutic Goods Act 1989)25AA條款下有關醫藥產品資訊的合理使用範疇,明確規範包括供給、重製、發行、散佈/傳播(communicating)、改作等利用全部或部分醫療藥品資訊的行為不侵害產品資訊的著作權。

馬來西亞個人資料保護法之發展仍有諸多不確定因素

  馬來西亞於2010年6月即通過個人資料保護法,延宕經年,該法終於自2013年底開始正式施行,而數項配套規範亦同步施行。前個資保護部門首長Abu Hassan Ismail則被任命為新設之個資保護專員,受通訊及多媒體部部長之指揮監督。   從規範內容架構觀察,馬國此部個資法之範疇堪稱恢弘,不但包括了諸多的實質行為規定,例如,在行為規範的面向上,馬國個資法要求其所謂的資料使用者(data user) 必須遵守多項個資保護原則並尊重當事人權利;此外,該法亦有不少與個資保護相關之組織及程序規則,例如,該法設有行政救濟法庭,如對個資保護專員之決定有所不服者,即可在此提出救濟。惜該法之適用對象不包括公部門,且在適用情形方面,除排除了純粹因個人或家庭目的而蒐集、處理、利用個人資料外,亦針對諸多情形分別排除該法所設之不同個資保護原則之適用,且更賦予個資保護專員另行指定排除適用情形之權限,因而除將相當程度限制該法影響範圍外,並使該法之適用與發展增加許多不確定之因素。

TOP