今(2018)年2月,一家成立於2013年、位於美國維吉尼亞州的雲端策略服務公司REAN Cloud Llc.以其他交易(Other Transaction, OT)模式獲得了美國國防部(Department of Defense)5年合計9.5億美金的合約,讓OT自2016年10 U.S. Code §2371b正式生效進一步確認美國國防部針對原型(Prototype)及其後續之產品開發適用OT以來[1],再次引起討論。
OT源於冷戰時期的美國,主要用於讓聯邦政府部門取得尖端國防技術的研究與發展(Research and Development, R & D)成果和原型。OT並非傳統之契約(contract)、授權書(grant)或合作協議(cooperative agreement),且法並無明確定義OT究竟實質內容為何。OT不受聯邦併購規則(Federal Acquisition Regulation, FAR)所規範,更接近一般私人商業契約,因此具備極大的合作彈性,可大幅度縮短私部門與政府合作常碰到的冗長時程。由於OT快速、彈性的這兩項特質,近年來應用於國防以外之新創或尖端科技之公私合作亦逐漸普遍。
然OT雖然簡化了政府採購的時程與限制,但同時也減少了問責可能性和透明度,因此目前只限具備美國國會授予其他交易授權(Other Transaction Authority, OTA)的聯邦政府機構得以使用OT。在美國計有太空總署(NASA)、美國國防部、美國聯邦航空總署(Federal Aviation Administration)、美國運輸部(Department of Transportation)、國土安全部(Department of Homeland Security)、運輸安全管理局(Transportation Security Administration)、衛生與公共服務部(Department of Health and Human Services)、美國能源部(Department of Energy)獲得國會授予OTA,其餘未獲OTA之政府部門僅得以在聯邦預算管理局(Office of Management and Budget)主任授權下有條件地使用OT。
尖端技術的R&D在不同領域皆有其特殊性,難以一體適用FAR,是以OT在實務運作上為兼顧持有尖端技術的公司重視速度和營業秘密之特質與採購之公平性,其運作模式通常為:聯邦政府成立某種技術領域的OT聯盟(consortium),私部門的潛在締約者可以申請加入,繳交會費並同意該聯盟的約定條款。聯盟之約定條款通常較政府採購契約來的有彈性,例如智慧財產權的歸屬是以個案個別約定。擁有OTA之政府機關嗣後可向聯盟成員徵求產品或服務白皮書,之後再從中挑選優秀者進一步繳交更詳細的產品或服務計畫書,最終經由聯盟管理機構(consortium management organization)挑選出最適者。
OT與OT聯盟的運作模式,為公私合作提供極大的法律彈性,且非常迅速。平均而言,從政府徵求白皮書到成功找到最適者,不過兩個月時間。時間與彈性乃是新創企業或尖端技術持有者與政府合作時最有疑慮之處,OT可以解決此一問題。然需注意OT在適用上仍存在諸多挑戰,例如成效難以評估、較不透明導致監督困難、智慧財產權歸屬爭議等,有待克服。
[1] 美國國防部在此前乃是遵循Section 845 of the National Defense Authorization Act(NDAA) for Fiscal Year(FY) 1994, Public Law 103-160適用OT。
美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。
美國專利法上的「銷售阻卻」(On-Sale Bar)美國專利制度中的「銷售阻卻」(On-Sale Bar)係指:發明銷售超過一年以上便喪失新穎性,不授予專利。 「新穎性」為美國專利法上可專利性要件之一。35 USC §102(a)(1)說明新穎性先前技術的例外(Novelty; Prior Art):「專利申請應被核准,除非該發明已申請專利、曾在紙本文件敘述、公開使用(In public use)、販售(On sale)、或以其他方式公開(Or otherwise available to the public)。」35 USC §102(b)(1)則給予專利發明人和申請人1年新穎性優惠期(Grace Period)。將前後兩個條文合併來看--假設該發明銷售超過一年以上便不得再授予專利。 「銷售阻卻」的立法意旨在於:避免發明人或其權利受讓人先將發明商業化並獲利,待競爭者進入市場後才提出專利申請,藉此有效地延長專利保護的期間,進而產生獨占(Monopoly)。 1998年,美國最高法院於Pfaff v. Wells Electronics (1998)一案,揭示銷售阻卻的要件:(1)該產品必須是商業上販售的標的;(2)該發明必須已經準備好要進行專利申請。唯有這兩個要件成就,才開始計算「一年」。
世界智財組織尋求保護來自傳統知識與遺傳資源的產品長久以來國際藥廠從大量販售的藥物中獲取上億元的營收,例如抗癌藥物與抗瘧藥物,均是萃取自中國的草本植物,但是這些擁有藥物傳統知識與遺傳資源的族群部落(the community),卻只得到相對微薄的報酬。為此,世界智慧財產組織(The World Intellectual Property Organization)已經在過去五年中力圖達成將利益擴及到提供傳統知識與遺傳資源的族群部落。 許多先進國家到非洲、亞洲等地方蒐尋具有療效的植物後,回實驗室進行研發萃取其物質後做成藥物,但卻從來沒有主動的揭露其來源,也不曾主動的回饋其獲利給那些藥廠從中獲得藥物植物的族群部落。開發中國家已試著要去制止這非法的竊用傳統知識的行為。 但由於傳統知識是累積的,因此傳統知識的保護也面臨到如何認定其於何時已存在的困難。因此傳統的智慧財產保護體系對於不能確認個別權利人與權利標的範圍的傳統知識無法提供保護。 不過,世界智慧財產組織表示藥廠已開始關心並參與傳統知識利用的協議,因為這些投資億元於研發而已有成功結果的藥廠,並不希望他們處於一個法律上不確定的狀態。
世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。