英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議:
(一)關於人工智慧及應用界定與發展
人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。
(二)未來對社會及政府利益及衝擊
人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。
目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。
在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。
(三)關於相關道德及法律風險管理課題
人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考:
(1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。
(2)調適由人工智慧作決策行為時的歸責概念和機制。
有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。
針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。
人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。
本文為「經濟部產業技術司科技專案成果」
美國專利商標局(USPTO)在2005年11月,與歐洲專利局(EPO)及日本專利局(JPO)之三邊會前會上,提出了一個簡稱為「三路」(Triway)的檢索共享計畫,該計畫希望能使三局的檢索技術發揮槓桿效果,進而能使專利申請者及各該專利管理當局受惠。 三局其後在2007年11月的三邊會前會上同意先期進行有限的試驗計畫。 「三路」的基本構想乃希望透過縮短時效來推廣資源分享,同時能使申請者及各該管理當局在很短的一定時間內取得三局的檢索結果,進而使申請者及各該局有機會能分享及考量所有的檢索結果,同一協助改善各該局對同一專利申請者專利審定之品質。 在「三路」試行計畫下,各該局對於在巴黎公約下之同一專利申請將適時提早進行檢索,且各該局的檢索結果將由三局共同分享以減少各該局的檢索及審查工作量。 三局同意「三路」試行計畫之試行對象限於在美國專利商標局首次提出申請者,並限於一百個試行專利申請案,試行計畫將在明年的同一時間結束,或在接受一百個試行專利申請案後提前結束。
FAA公告禁止無人機於美國主要旅遊景點內飛行根據美國國家安全執法機構(US national security and law enforcement agencies)之要求,美國聯邦航空總署(Federal Aviation Administration,以下簡稱FAA)於2017年9月28日,依照聯邦法規(Code of Federal Regulations)第99.7條規定,發布無人機飛行規則,禁止任何人於多個旅遊地點邊界範圍400英尺內飛行無人機。美國聯邦調查局(FBI)局長Christopher Wray表示,「擔心恐怖分子會使用無人機進行攻擊。」 從FAA的公告中,禁止無人機飛行之限航區係由FAA和內政部(Department of the Interior,以下簡稱DOI)共同指定,包括:紐約自由女神像(Statue of Liberty National Monument)、波士頓國家歷史公園(Boston National Historical Park)、費城獨立國家歷史公園(Independence National Historical Park)、加州福爾索姆水壩(Folsom Dam)、亞利桑那州格倫峽谷大壩(Glen Canyon Dam)、華盛頓州大古力大壩(Grand Coulee Dam)、內華達州胡佛水壩(Hoover Dam)、密蘇里州傑弗遜國家擴張紀念公園(Jefferson National Expansion Memorial)、南達科他州拉什莫爾山國家紀念公園(Mount Rushmore National Memorial)、加州沙斯塔壩(Shasta Dam)。以上具體位置皆屬DOI管轄地區,也是FAA第一次將無人機之空域限制規定於DOI地標上,目前FAA仍對軍事基地進行類似空域限制。 限制無人機飛行之規則將於2017年10月5日生效,違反空域限制者,將採取法律行動,包含民事處罰和刑事追訴。只有少數例外情形,允許無人機在限制區內飛行,且必須和個別場所或FAA進行協調。FAA表示,正依聯邦法規第99.7條配合考慮其他聯邦機構對於無人機之其他限制要求。
英國政府提出線上盜版刑期從2年延長10年英國政府提議將網路盜版者的有期徒刑從2年調整到10年的法律修正案,假使這修正案被批准,將會使網路著作權侵權刑責與實體侵權的刑責趨於一致。 英國智慧財產局公開了諮詢文件,提到利益人希望調整網路侵權的刑事制度,提高為10年的有期徒刑的訴求。英國政府同意網路著作權侵權導致的嚴重損害不少於實體盜版侵權的損害。此項修正案的嚴刑峻罰對於網站擁有者的影響將大於個人侵權者。政府文件指出,此修正案特別針對設法透過網路廣告和訂閱費用獲利的犯罪活動。 英國的智慧財產部長Baroness Neville-Rolfe說道,創意產業帶動超過7萬億經濟價值,應著重保護創意產業遠離網路犯罪集團。對於商業規模的網路犯罪行為採取嚴峻的刑罰,將可提供產業更大的保護,並可明確傳遞清除犯罪的決心以嚇阻罪犯。 政府針對諮詢文件提供六周的時間供個人和組織對此已知的提案提供意見,一旦政府進一步對此議題的回應進行評估與審查,可預期未來幾個月即可獲知此法律修正案最終的決定。 將網路侵權的刑期提高到10年已經是第二次推動,在2005年Gowers智慧財產權審查報告中已經提議提高刑責2年到10年,但在當時政府拒絕此項提議,因為當時政策僅針對嚴重或危險的罪犯處以監禁服刑。
澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)