日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論:
一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。
AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。
二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。
本文為「經濟部產業技術司科技專案成果」
在2023年,多個美國法院判決拒絕採納「不可避免揭露原則(Inevitable Disclosure Doctrine)」,顯示出該原則將不再是原告於營業秘密訴訟中的一大利器,原告亦無法僅透過證明前員工持有營業秘密資訊且處於競爭狀態,便要求法院禁止該名前員工為其競爭對手工作。 在2023年2月,美國伊利諾伊州北區法院於PetroChoice v. Amherdt一案中指出,法院在適用「不可避免揭露原則」時會遏制競爭對手之間的員工流動,故將評估個案事實並嚴格限制其適用。在2023年6月,美國伊利諾伊州北區法院於Aon PLC v. Alliant Ins. Services一案中指出,根據2016年美國國會所通過的「保護營業秘密法案(Defend Trade Secrets Act, DTSA)」,該法案拒絕了「不可避免揭露原則」的適用,並禁止法院僅憑他人所知悉的資訊,阻礙其尋求新的工作,因此駁回了原告的損害賠償主張。在2023年9月,美國密蘇里州東區法院於MiTek Inc. v. McIntosh一案中同樣拒絕了「不可避免揭露原則」的適用,儘管該州的州法並未明確表達採納或拒絕該原則。 除此之外,美國聯邦法院在去年度的每一份報告意見中(Reported Opinion),皆未顯示出根據「不可避免揭露原則」申請禁令或取得救濟是合理的。換言之,大多數的美國法院都拒絕採納「不可避免揭露原則」或嚴格限制其適用。 綜上所述,儘管「不可避免揭露原則」能有效防止來自前員工不當使用其營業秘密的威脅,但其不再是未來營業秘密訴訟中的勝訴關鍵。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。
美國指控中國兩大電信通訊商威脅國家安全,呼籲各機關及私人企業拒絕向其購買設備及技術美國眾議院情報委員會終於發佈了對中國兩大電信通訊商「中興」(ZTE)和「華為」(Huwei)的調查報告,報告結論指出,「中興」和「華為」確實危及美國的國家安全。 情報委員會呼籲美國政府機關和企業,尤其是政府機關,不應該讓「中興」、「華為」成為資訊系統相關設備或零組件的供應商,因為他們會安裝「後門程式」(backdoor)為中國政府和軍方進行間諜活動和網路攻擊,並敦促美國企業的經營者,應該阻絕未來收購、購併「中興」、「華為」的可能性。情報委員會亦呼籲美國國民不要購買任何由「中興」、「華為」製造的任何電子設備,包括手機、平板電腦、數據機等,否則個人資料將在不知不覺中全數洩漏給中國。 「華為」的建立者任正非(Ren Zengfe),同時也是「華為」執行長,1987年離開中國軍方創立「華為」,情報委員會認為他始終與中國政府和軍方保持密切聯繫,而「華為」拒絕配合情報委員會的調查,「中興」也不願提供完整的內部資料,報告指出:「中興」和「華為」應該讓公司內部架構、組織和財務管理及經營運作更加透明化,盡到美國法制要求的應盡義務」。 但英國政府表明支持「華為」,只是會採取必要的保護措施維護國家安全。「華為」在英國具有相當龐大的影響力,2001年在英國正式營運,投資了一億五千萬英鎊,並創造了650個工作機會,主要提供英國電信業者於寬頻服務的相關硬/軟體設備。另外英國手機營運商EE(Everything Everywhere)所發行英國首套的4G商用網,當中的行動作業系統便是使用「華為」的技術,EE的發言人表示:「我們有一套嚴格的安全檢查程序,確保合作伙伴和合作內容都符合EE的要求和標準,而「華為」是值得信賴和尊敬的伙伴」。 其他國家如加拿大和澳洲,則採取保守態度,評估這兩家電信通訊商的可信度和可用性。
猴子自拍照著作權爭議;美國法院:動物無法擁有著作權2015年1月6日,美國聯邦地區法官裁定,猴子用照相機自拍,猴子無法取得自拍照的著作權。 英國攝影師Slater在四年前,讓黑冠猴Naruto使用其相機,成功的拍出了罕見的黑冠猴自拍照;而攝影師Slater後來把這些自拍照收錄在出版書中,並同時在網路上公開,並獲得廣大迴響。但之後維基百科(Wikipedia)收進免費圖片資源中,供大眾免費下載使用,Slater認為則認為這些照片的著作權已經被英國官方認可屬於Slater所開設的公司,此認可應適用於全世界。惟美國著作權局在2014年最新政策中,認為著作權登記僅適用「人類作品」,據此Naruto之自拍照並不受著作權保障。 而善待動物組織PETA(People for the Ethical Treatment of Animals)組織也加入了著作權爭奪戰局,其認為由Naruto所拍攝自拍照,其著作權應屬於Naruto,但由於Naruto不懂如何行使權利,故由PETA代為管理著作權,相關收益均會用於保護黑冠猴,並且向舊金山聯邦法院提出告訴。美國聯邦法院則在2016年1月6日判決,目前著作權法仍未將保護範圍擴張至動物作品上,故Naruto並未擁有該自拍照著作權,自無PETA代掌著作權可能;PETA接獲判決後表示會提出上訴。