何謂「阿西洛馬人工智慧原則」?

  所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。

  該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。

  其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 何謂「阿西洛馬人工智慧原則」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7716&no=64&tp=1 (最後瀏覽日:2024/11/22)
引註此篇文章
你可能還會想看
美國又傳疑似商業間諜活動

  2007年3月舊金山聯邦法院受理Oracle軟體公司對競爭對手SAP及其關係企業TomorrowNow提出濫用電腦詐欺、商業間諜行為告訴。   Oracle公司表示,自2006年底起便發現公司網站中與PeopleSoft、J.D. Edwards有關的客戶支援與維護部分出現流量暴增的現象。犯罪者冒用客戶的ID進入網站中竊取重要軟體與資料,目前已發現超過一千萬筆的違法下載紀錄,而犯罪者IP位址是來自於SAP德州辦公室所在地。   訴狀中指出,SAP員工涉嫌冒用多名PeopleSoft及J.D. Edwards的客戶帳號,登入並存取Oracle的重要資料與客戶連繫系統。因此,Oracle要求法院對SAP發出禁制令,以阻止其違法行為,另聲請法院下令要求SAP歸還非法竊取之資料與文件。   面對Oracle指控,SAP公司發言人Steve Bauer表示公司目前仍在瞭解與檢視該案件,因此不便就整起事件發表評論,但公司保證將全力回擊Oracle的指控。

Other Transaction(OT)於新創政府採購之應用

  今(2018)年2月,一家成立於2013年、位於美國維吉尼亞州的雲端策略服務公司REAN Cloud Llc.以其他交易(Other Transaction, OT)模式獲得了美國國防部(Department of Defense)5年合計9.5億美金的合約,讓OT自2016年10 U.S. Code §2371b正式生效進一步確認美國國防部針對原型(Prototype)及其後續之產品開發適用OT以來[1],再次引起討論。   OT源於冷戰時期的美國,主要用於讓聯邦政府部門取得尖端國防技術的研究與發展(Research and Development, R & D)成果和原型。OT並非傳統之契約(contract)、授權書(grant)或合作協議(cooperative agreement),且法並無明確定義OT究竟實質內容為何。OT不受聯邦併購規則(Federal Acquisition Regulation, FAR)所規範,更接近一般私人商業契約,因此具備極大的合作彈性,可大幅度縮短私部門與政府合作常碰到的冗長時程。由於OT快速、彈性的這兩項特質,近年來應用於國防以外之新創或尖端科技之公私合作亦逐漸普遍。   然OT雖然簡化了政府採購的時程與限制,但同時也減少了問責可能性和透明度,因此目前只限具備美國國會授予其他交易授權(Other Transaction Authority, OTA)的聯邦政府機構得以使用OT。在美國計有太空總署(NASA)、美國國防部、美國聯邦航空總署(Federal Aviation Administration)、美國運輸部(Department of Transportation)、國土安全部(Department of Homeland Security)、運輸安全管理局(Transportation Security Administration)、衛生與公共服務部(Department of Health and Human Services)、美國能源部(Department of Energy)獲得國會授予OTA,其餘未獲OTA之政府部門僅得以在聯邦預算管理局(Office of Management and Budget)主任授權下有條件地使用OT。   尖端技術的R&D在不同領域皆有其特殊性,難以一體適用FAR,是以OT在實務運作上為兼顧持有尖端技術的公司重視速度和營業秘密之特質與採購之公平性,其運作模式通常為:聯邦政府成立某種技術領域的OT聯盟(consortium),私部門的潛在締約者可以申請加入,繳交會費並同意該聯盟的約定條款。聯盟之約定條款通常較政府採購契約來的有彈性,例如智慧財產權的歸屬是以個案個別約定。擁有OTA之政府機關嗣後可向聯盟成員徵求產品或服務白皮書,之後再從中挑選優秀者進一步繳交更詳細的產品或服務計畫書,最終經由聯盟管理機構(consortium management organization)挑選出最適者。   OT與OT聯盟的運作模式,為公私合作提供極大的法律彈性,且非常迅速。平均而言,從政府徵求白皮書到成功找到最適者,不過兩個月時間。時間與彈性乃是新創企業或尖端技術持有者與政府合作時最有疑慮之處,OT可以解決此一問題。然需注意OT在適用上仍存在諸多挑戰,例如成效難以評估、較不透明導致監督困難、智慧財產權歸屬爭議等,有待克服。 [1] 美國國防部在此前乃是遵循Section 845 of the National Defense Authorization Act(NDAA) for Fiscal Year(FY) 1994, Public Law 103-160適用OT。

中國大陸科技部開始進行首批國家科技成果轉移轉化示範區建設計畫

  於2016年10月14日,中國大陸科技部為落實國務院於5月9日發布之《促進科技成果轉移轉化行動方案》中,有關大力推動地方科技成果轉移轉化,並開展區域性科技成果轉移轉化試點示範的要求,開始啟動在河北以及寧波,兩個科技成果轉移轉化示範區的建設計畫。   中國大陸推動國家科技成果轉移轉化示範區之目的在於推動科技成果轉移轉化工作,以期能有助於完善區域科技成果轉化政策環境,並且提升區域創新之能力;示範區的建設重點將在於完善科技成果轉化服務體系、建設科技成果產業化載體、開展政策先行先試等方面開展工作,進行地方的創新驅動發展。   為此,中國大陸科技部並印發了《科技部關於建設河北•京南國家科技成果轉移轉化示範區的函》、《科技部關於建設寧波國家科技成果轉移轉化示範區的函》兩份政策文件,其中河北•京南示範區的重點在於配合北京、天津,以及河北的區域協同發展,充分發揮跨區域輻射帶動作用,並且承接北京及天津的創新要素外溢轉移,以及與河北產業創新需求進行對接。而寧波示範區將則以科技成果轉化對產業和企業創新發展的對接為核心戰略,發展以企業為主體的科技成果轉移轉化示範區域。並以這兩個示範區的測試來探索模式、累積經驗。

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

TOP