德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見

  德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。

  歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。

  在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。

  在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8546&no=67&tp=1 (最後瀏覽日:2025/11/17)
引註此篇文章
你可能還會想看
加拿大政府就生成式人工智慧對著作權的影響進行公眾諮詢

加拿大政府於2023年10月23日至12月4日針對「生成式人工智慧對著作權的影響」(consultation on the implications of generative artificial intelligence for copyright)進行公眾諮詢,以期了解生成式人工智慧對於加拿大著作權市場之變化,進而修訂《著作權法》(Copyright Act),本次諮詢文件中討論重點整理如下: 1.文字和資料探勘(Text and Data Mining, TDM):是否需要因應TDM修改加拿大原本的著作權法,包含著作權法中合理使用行為(29條)和暫時性重製行為(30.71條)等得不構成侵害之例外條款。學者、AI使用者以及AI技術團體大多持肯定見解,認為TDM行為中使用的著作時不需要權利人的著作權授權;然創意產業則多持否定見解,認為不應該為TDM創設例外,否則將會使得TDM所使用之作品原著作人無法主張權利以獲得授權金。 2.人工智慧生成作品之著作人身分及著作權歸屬:因利用生成式人工智慧所創作或輔助創作之文字、圖像和音樂有作者身分不明確之虞,因此加拿大政府希望可以對此加以澄清,並討論是否需要修改原本的著作權法案中相關規定。針對作者身分不明確之爭議,加拿大政府提出了三種可能的規範模式: (1)闡明著作權保護只適用於自然人創作的作品; (2)將人工智慧生成作品之作者歸屬於在創作作品時運用技能和判斷力的自然人,凡自然人可以在人工智慧技術輔助下創作的作品中貢獻足夠的技能和判斷力,即可被視為該作品的作者; (3)為人工智慧生成的作品創設一套新的權利。 3.人工智慧之侵權責任:人工智慧係透過大量的資料庫來生成一項作品,過程中可能出現侵害他人著作權之情形,而加拿大現行的著作權法框架下很難認定侵權行為之責任歸屬。加拿大現行的著作權法要求被侵權人(著作人)必須證明侵權人明知其重製行為侵犯他人著作權,且就該他人著作加以重製,但一般人難以瞭解人工智慧系統開發及訓練過程,因此難證明人工智慧系統研發與利用過程中的業者、工程師或其他相關人等是否有侵權行為。因此加拿大政府希望利害關係人就此議題提供更多意見,以協助將來修法、提高市場透明度。 生成式人工智慧雖然提供了便利的創作方式並帶來巨大經濟利益,卻也可能侵害他人著作權,因此平衡著作人之權利並兼顧經濟發展是加拿大政府及國際社會課正積極解決的議題。

全球Open Data成功及挑戰之關鍵報告

  根據全球資訊網基金會(World Wide Web Foundation)及英國開放資料協會(Open Data Institute)指出,全球77個國家正進行Open Data政府開放資料政策,但實際運作上,各國政府提供公眾近用之資料集佔不到全世界政府資料的10%,呈現各國Open Data政策實行還有很大進步空間。   全球資訊網基金會與英國開放資料協會所合作的網絡平台-政府開放資料研究網絡(Open Data Research Network),針對各國政府開放資料執行狀況進行評比並提出Open Data Barometer研究報告。此報告指出,英國政府開放資料執行及成效排名第一,其次排名陸續為美國、瑞典、紐西蘭、丹麥、挪威。除此之外,專以倡導開放知識、資料、內容的國際非政府組織,開放知識基金會(Open Knowledge Foundation),則提出基於Open Data可用性及近用性進行70個國家的排名,英國仍是第一名,其次為美國、丹麥、挪威、荷蘭。從上述兩項研究報告中,英國在Open Data政策落實的成效受到高度肯定,而歐美地區仍在Open Data政策實行上領先世界其他地區的國家。   Open Data Barometer研究報告指出,目前各國政府傾向不提供具潛在爭議性的政府資料,但此類資料往往具再利用價值,例如政府財政預算及交易資料、公司登記、土地登記等相關資料。全球資訊網創始人Berners Lee表示,政府及企業不應考量提供資料集而無法收取費用,或有意掩蓋政治敏感之資料來保護政治利益,而對於公布會造就人民生活的重大進步但具爭議性之資料集,感到卻步。   目前多數國家開放資料之機器可讀性資料與資料集之免費授權(Open License)皆少於7%,報告中說明全球資料集實際可用性仍偏低,亦發現各國提供資料之收費不僅沒有效率,資料再利用授權關係也不明確,使得企業及使用者處在法律不確定之風險中。   全球面對開放資料的進展雖已有初步成效,但成功經驗仍集中在歐美國家,世界上其他國家在開放資料的可用性及近用性,仍與歐美國家有顯著差距,為能促進全球人民生活福祉及活絡商機,各國政府應更積極地執行開放資料政策,並持續改進。

美國最高法院在Bilski v. Kappos案中仍然留下對於商業模式的可專利性做下模糊的判決

  美國最高法院於2010年6月28日對Bilski v. Kappos案作出5比4的拉距判決。原告Bilski為一家能源產品公司,其就一種讓買家或賣家在能源產品價格波動時,可用來保護、防止損失或規避風險的方法申請商業方法專利(Business Method Patent)。但美國商標專利局審查人員以此發明只是一種解決數學問題,而為抽象而無實體呈現的想法為理由而拒絕。經該公司於專利上訴委員會上訴無效後,繼續上訴至聯邦巡迴法院與最高法院。   最高法院拒絕適用前審以美國專利法第101條(35 U.S.C. §101),創造發明是否為有用的、有形的及有體的結果作為認定方法專利的標準。而最高法院多數意見係採用「機械或轉換標準」(machine or transformation test)為專利法第101條可專利性之標準,認定如果創造發明的方法能與機械器具或配件相結合或轉換為另外一種物品或型態時,即認定此方法具可專利性。惟經法院適用此標準後,仍認定原告的商業方法不具可專利性。   一些批評認為,目前「方法」和「轉換」等關鍵字的定義還不清楚,而該判決並沒有澄清這些爭議,甚至帶來更多的疑惑。美國律師Steven J. Frank認為,雖然最高法院的意見放寬了可專利性的標準,但是並沒有提及認定可專利性的其他標準。   該判決亦未明確指出商業方法究竟要符合哪些實質要件,方具有可專利性。相當多的電子商務中所使用的「方法」都有專利,最有名的大概就是亞馬遜公司的「一鍵購買(one-click)」的網路訂購方法,還有Priceline公司「反向拍賣」(reverse auction)的方法等。許多電子商務、軟體及財務金融相關業者在這個判決之後,對於商業方法的可專利性也感到相當的困惑。如果有方法專利的存在,那麼擁有這些專利的公司就可以放心了;但是,如果方法沒有可專利性,那麼對於現在擁有方法專利的權利人不啻是一個很壞的消息。是否一些比較不抽象的方法就具有可專利性,而比較抽象的方法就專利性,判定的標準又在哪裡,對此,法院並沒有加以說明,在法院明訂出更明確的標準之前,目前仍留給美國商標專利局來判定。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP