歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。

  該指引並進一步指出人工智慧應遵守以下四項倫理原則:

(1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。

(2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。

(3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。

(4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 歐盟執委會提出「具可信度之人工智慧倫理指引」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=64&tp=5&d=8236 (最後瀏覽日:2024/07/27)
引註此篇文章
你可能還會想看
日本特許法有關職務發明報酬規定之新近發展趨勢

  企業或機構對於所屬研發人員所為的 職務發明 , 應該給予多少的報償才算「合理」,近年來成為日本專利制度的爭議話題之一,其中 Olympus Optical Co., Ltd. v. Shumpei Tanaka 、 Yonezawa v. Hitachi Co. Ltd. 、 Nakamura v. Nichia Chemical Co Ltd 幾件訴訟案件更受到高度矚目,引發各界對於日本特許法(即專利法)中第 35 條第 3 、 4 項相關規定之檢討與議論,進而促使日本國會於 2004 年 5 月 28 日 通過特許法修正案,並自 2005 年 4 月 1 日 正式生效。   修正後之日本特許法有關受雇人發明制度部分,修正了第 35 條第 3 項及第 4 項並新增第 5 項。第 35 條第 3 項規定,受雇人依據契約、工作規則或其他約定,同意授予雇用人關於受雇人所為發明之專利申請權、專利權或設定專用實施權時,受雇人對於雇用人有收取合理報酬之權。第 35 條第 4 項規定,依據前項所定之契約、工作規則與其他約定,訂有報酬之約定時,在該報酬之決定標準係經由受雇人與雇用人協議為之,該報酬標準係經公開,且受雇人對於計算報酬金額所表達之意見,亦被充分聽取的情形下,依據該約定所為之報酬金給付應被認為是合理的。又同條第 5 項之規定,若企業內部之契約、工作規則與其他約定,並未規定報酬金額,或雖有規定,但該規定之報酬金額被認為是不合理的,則第 3 項所規定之合理報酬金額,應權衡雇用人基於該發明所獲得之利益、所承受之負擔及對該發明所做之貢獻,與受雇人在相關發明中所獲得之利益及其他相關因素加以認定之。   上述修正規定最大的特色在於 :(一)尊重自主協議 ; (二)報酬計算要件更加具體化 ; (三)鼓勵裁判外紛爭解決手段 。新修正之受雇人制度會帶來什麼樣的影響,目前各界仍在觀察;不過可確定的是,相較於舊法,新法至少在計算合理報酬上,要求雇用人須踐行更多的程序及其他要件,而這程序或要件規定將可減少法官在舊法時計算合理報酬金額的沈重負擔,與高度不確定所帶來的風險,並且亦可減少受雇人發明訴訟的總數量。 以日本電子大廠 Toshiba 新近在 7 月底與其離職員工 Fujio Masuoka 就閃光記憶晶片技術( flash memory chip technology )所達成之職務發明報酬和解協議為例, Toshiba 在 7 月 27 日 發布的新聞稿中,即特別感謝東京地方法院對公司有關員工職務發明之報酬政策及看法的尊重。

WhatsApp因違反GDPR遭愛爾蘭資料保護委員會開罰2.25億歐元

  愛爾蘭資料保護委員會(Data Protection Commission,DPC)於今(2021)年9月宣告WhatsApp Ireland Limited(下稱WhatsApp)違反歐盟一般資料保護規則(General Data Protection Regulation,GDPR)並處以高額裁罰。   DPC自2018年12月起主動調查WhatsApp是否違反GDPR下的透明化義務,包括WhatsApp透過其軟體蒐集用戶與非用戶的個人資料時,是否有依GDPR第12條至第14條提供包括個資處理目的、法律依據等相關資訊,以及該資訊有無符合透明化原則等,其中又以WhatsApp是否提供「如何與其他關係企業(如Facebook)分享個資」之相關資訊為調查重點。   歷經長時間的調查,DPC作為本案領導監管機關(lead supervisory authority),於2020年12月依GDPR第60條提交裁決草案予其他相關監管機關(supervisory authorities concerned)審議。惟DPC與其他相關監管機關就該裁決草案無法達成共識,DPC復於今年6月依GDPR第65條啟動爭議解決程序,而歐洲資料委員會(European Data Protection Board)在同年7月對裁決草案中的疑義做出有拘束力之結論,要求DPC提高草案中擬定的罰鍰金額。   DPC最終在今年9月2日公布正式裁決,認定WhatsApp未依第12條至第14條提供資訊予「非軟體用戶」之資料主體,而「軟體用戶」的部分也僅有41%符合規範,嚴重違反GDPR第5(1)(a)條透明化原則。據此,以母公司Facebook全集團營業額作為裁罰基準,DPC對WhatsApp處2.25億歐元之罰鍰,為GDPR生效以來第二高的裁罰,並限期3個月改善。

歐洲專利局拒絕以AI為發明人的專利申請

  歐洲專利局於2019年12月20日,拒絕受理兩項以人工智慧為發明人的專利申請,並簡扼表示專利上的「發明人」以自然人為必要。另於2020年1月28日發布拒絕受理的完整理由。   系爭兩項專利均由英國薩里大學教授Ryan Abbott(下稱:專利申請人)的團隊申請,並宣稱發明人是「DABUS」。DABUS並非人類,而是一種類神經網路與學習演算法的人工智慧,由Stephen Thaler教授發明並取得專利。專利申請人先於2019年7月24日將自己定義為DABUS的雇主並遞出首次專利申請,再於2019年8月2日改以權利繼受人名義申請(Successor in Title)。專利申請人強調系爭申請是由DABUS發明,且DABUS在人類判定前,即自我判定其想法具新穎性(identified the novelty of its own idea before a natural person did)。專利申請人認為該機器應可以被視為發明人,而機器的所有人則是該機器創造出的智慧財產權之所有人─這樣的主張是符合專利系統的主旨,給予人們揭露資訊、商業化和進行發明的動機。申請人進一步強調:承認機器為發明人可以促進人類發明人的人格權和認證機器的創作。   在經過2019年11月25日的聽證程序(Oral Proceedings)後,歐洲專利局決定依《歐洲專利公約》(European Patent Convention)Article 81, Rule 19 (1)駁回申請。歐洲專利局強調,發明人必須是自然人(Natural Persons)是國際間的標準,且許多法院曾經對此做過相應的判決。再者,專利申請必須強制指定發明人,因為發明人需要承擔許多法律責任與義務,諸如取得專利權後衍生的法律權利。最後,雖然Article 81, Rule 19 (1)規定發明人應該要附上姓名與地址,但單純幫一個機器取名字,並不會使之符合《歐洲專利公約》的發明人要件。歐洲專利局強調,從立法理由即可知道,《歐洲專利公約》的權利主體僅限自然人和法人(Legal Persons)、專利申請的發明人僅限自然人。歐洲專利局表示,目前AI系統或者機器不具有權利,因為他們沒有如同自然人或法人一樣的人格(Legal Personality)。自然人因為生命而擁有人格,而法人的法人格來自於法律擬制(Legal Fiction)。這些法律擬制的人格來自於立法者的授權或者眾多司法判決的演進,而AI發明者是不具有此般的法律擬制人格。

營業秘密管理概要

TOP