英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議:
(一)關於人工智慧及應用界定與發展
人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。
(二)未來對社會及政府利益及衝擊
人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。
目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。
在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。
(三)關於相關道德及法律風險管理課題
人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考:
(1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。
(2)調適由人工智慧作決策行為時的歸責概念和機制。
有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。
針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。
人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。
本文為「經濟部產業技術司科技專案成果」
主管英國生殖醫療及胚胎研究事務的人工授精暨胚胎管理局(The Human Fertilisation and Embryology Authority, HFEA)在考量過包括對捐贈婦女的風險以及公眾意見的諮詢後,於今(2007)年2月21日正式對外宣佈一項關於研究用途卵子捐贈的方案,當中提出有力的安全措施確保婦女在捐贈過程中會被正確的告知其風險,並強制地獲得適當的保障。管理局許可婦女捐贈其卵子以供研究之用,包括利他的卵子捐贈,以及接受試管受精醫療後所剩餘的卵子捐贈,而這是英國政府首度許可非接受生殖醫療的婦女可以為提供研究之用進行卵子捐贈。 HEFA強調研究用途卵子捐贈在程序上將有更明確的安全措施。這些安全措施包括清楚的區分研究人員及施行該婦女醫療的人員、關於實際上研究後果的詳細資訊、捐贈將產生的影響,以及要求獲得捐贈婦女在不受研究團隊干擾下的同意。這些安全措施將可有效避免女性捐贈者在被脅迫、被詐欺或是被誤導下做出捐贈卵子的決定。同時,婦女亦不能藉由捐贈卵子而獲得報酬,捐贈者只能要求一筆因捐贈所實際產生費用的補償(250英鎊,約16000元新台幣)。 雖然HEFA認為研究用途捐贈卵子的婦女將得到管制部門嚴密而強力的保障,並且不預見在這個特殊的研究領域會有魯莽的應用,但是部分專家對此並不贊同。位於英國倫敦的國王學院幹細胞研究學者Stephen Minger博士即認為目前使用人類卵子進行的研究工作仍未成熟,這項過早提出的方案會鼓勵婦女去提供她們的卵子來進行研究,而鼓勵這種情況的發生仍是太早了。
日本總務省公布「2010次世代寬頻整備策略」日本總務省遵照其「u化日本政策報告」(2004年12月公布)以及IT策略本部「IT新改革策略」(今年1月公布)之規劃方向,8月11日正式對外公布「2010次世代寬頻整備策略」,以2010年該國寬頻覆蓋率超過百分之九十,作為寬頻基礎建設整備之政策目標。 詳言之,依照前開策略之記載,一則希望2008年底該國所有市町村均得接取寬頻,以求消弭目前尚有部分地區根本無從接取寬頻之區域落差現象,再則預計2010年底,全國能有超過百分之九十的家庭得以接取上傳下載雙向速度均超過30Mbps之超高速寬頻。於此過程,固然原則上係由民間主導相關整備活動之進行,惟官方亦應本諸技術中立之立場,施行適切之競爭政策,規劃吸引業者投資之誘因;其中,位處偏遠、投資效益可能偏低之地區,宜藉由中央、地方、居民、業者等各界相互交流合作,並配合技術層面之進展,妥善進行。另外,宣導整備成果、開發創新應用、維繫安全環境等,均屬重要,亦應於前開寬頻整備過程一併積極推動,以利後效。
德國聯邦專利法院認定人工智慧不具專利發明人資格 但特別點出人工智慧在發明之貢獻德國聯邦專利法院在2021年11月中旬對美國發明人Stephen Thaler(後稱Dr. Thaler)所開發之AI系統(DABUS)是否能成為專利發明人作出判決,儘管AI在研發過程中協助發現問題並解決問題,法院仍認為專利發明人必須為自然人,但特別補充說明這項發明確實有得到AI的幫助。 Dr. Thaler及其法律團隊將該發明在各國進行專利申請。盤點各國智財局或法院之考量:美國專利商標局(USPTO)強調發明人應以自然人為由排除這類案件;儘管英國智財局(UKIPO)認同DABUS富有創新,卻否認其為合法發明人,不過認為有必要檢視AI技術帶給現存專利制度的挑戰,並已啟動針對AI發明之法律改革計畫;至於歐洲專利局(EPO)以不符合自然人或實體等資格而核駁這類案件,然而上訴結果將於12月下旬作出判決。 惟澳洲聯邦法院在7月底逆轉做出法律並未禁止以AI為發明人而提出專利申請之判決,這也是繼南非允許AI作為發明人而取得專利權之後的第二個案例。 根據各國智財局、世界智慧財產權組織(WIPO)與法院多將智慧財產係來自於心智創作,卻未定義該心智創作是來自於人類或AI,可預見非人類主體將可被視為發明人並授予智慧財產權。此外,現行智財法律也有重新檢視與定義之必要性,包括釐清AI演算法與AI開發者之角色以重新定義發明人資格或所有權人等議題。
歐盟法院關於瑞典海盜灣線上分享平台(The Pirate Bay)之侵害著作權判決-歐盟法院(以下簡稱CJEU)於2017/07/14在Stichting Brein v Ziggo案中做出決定,認定瑞典海盜灣線上分享平台(The Pirate Bay,以下簡稱TPB)使用BitTorrent分享軟體涉及侵害公開傳輸權。 案例事實如下: Ziggo等網路服務供應業者(以下簡稱:ISP)之眾多用戶,在未得權利人同意之情況下,使用TPB平台經由BitTorrent軟體分享及下載存於用戶電腦之作品檔案。荷蘭著作權團體Stichting Brein向荷蘭法院聲請對該等ISP業者發出禁制令,令其阻斷TPB之IP網址及網域名。本案由荷蘭最高法院向CJEU提出判決先訴問題,確認在歐盟著作權指令第3(1)條下, TPB等網站管理者於其平台上雖不提供作品檔案,但使用前述分享軟體使網站使用者得搜尋並下載受著作權保護之作品,是否構成對公眾傳輸行為? CJEU之認定如下: 任何讓用戶得接近利用受保護之著作物,即構成歐盟著作權指令第3(1)條稱之傳輸行為。在本案中著作物是經由TPB,使平台使用者能於任何時間及地點接近利用著作物,雖著作物檔案是由其他使用者而非平台業者提供,但平台業者在使作品被接近利用上扮演者關鍵角色,例如將檔案作品分類、消除過時及有錯誤檔案等使作品檔案容易被定位及下載。 CJEU又指出, TPB已被告知其平台提供未經授權之著作物檔案,仍鼓勵使用者於平台上下載違法檔案,並經由廣告賺取可觀營收,故TPB不能主張其無從得知行為之違法性。因此CJEU認定TPB協助違法接近利用及分享著作物之線上平台,是足以構成著作權之侵害。