以「公私夥伴關係(PPP)」發展科技之作法

  近來常聽聞各國以公私夥伴關係(Public-Private Partnership, PPP)之模式發展產業科技,PPP故名思義,係指結合公私部門之力量,以共同達成公共政策目標之合作模式。公部門可借重私部門的專業、經驗與品質,使其服務更有效率,私部門也可得到政府與政策之支持。

  如今科技進步程度往往可代表ㄧ國之競爭力,惟科技研發需投入大量成本,因此各國多有針對科研補助之相關政策,從早年的單方補助,到如今強調公私合作進行科研的PPP模式。各國亦提出各種產官學合作研發的模式或組合之立法或相關政策。例如成立獨立非營利法人讓各項研發活動進行更方便、研究設施設備共享更容易的日本「技術研究組合」、芬蘭之SHOKs。荷蘭近來亦大力推行PPP研發之策略。德國之高科技領先戰略計畫( Spitzencluster-Wettbewerb)亦以區域聚落(該區域聚落即包含產業界、大學及其他相關學術機構)為單位,藉競爭給予補助的方式,促成該地區產官之緊密合作。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 以「公私夥伴關係(PPP)」發展科技之作法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7650&no=57&tp=5 (最後瀏覽日:2026/02/01)
引註此篇文章
你可能還會想看
微軟向美國專利商標局(USPTO)提出可用以追蹤物體的擴增實境(AR)專利申請

  依據12月USPTO公開資訊,微軟(Microsoft)於2016年9月2號提出擴增實境(Augmented Reality,以下簡稱AR)系統之美國發明專利申請(申請號:20160373570)。目前AR系統不僅可投射虛擬訊息,還可偵測物理空間之物體位置,不過因為現實生活中,不管是有生命或無生命物體,都不太可能處於完全靜態不動的狀況;而微軟此技術之開發,除了不限於固定空間外,對移動中的物體更具有自動追蹤效果。   微軟專利指出該系統能辨識無生命物體,並可將該物體被選擇為追蹤對象的技術,這個AR系統可持續監測物體的狀態,不僅在同一空間中不同時間點,甚至是物體離開監控空間又被帶回的情況都可追蹤。從微軟專利可以看到這項技術運用在日常生活的價值,如:我們常常花很多時間在想汽車鑰匙和錢包放在哪裡,但透過這個系統的追蹤,可以節省我們找尋的時間;有時我們會忘記家裡的牛奶還剩多少,而花時間去逛超商,倘若我們運用此追蹤技術,能夠隨時知道牛奶剩餘的狀態,就可以避免這種情況的發生。   上開技術不僅包含AR技術,還有虛擬實境(Virtual Reality,簡稱VR)技術,這些技術能透過虛擬與真實世界合併,將真實世界、人類、空間和物體結合,並可進一步的智慧化追蹤,若這項專利被核准且可真實運用到現實生活,必能減少我們的生活中不必要的麻煩。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

伊利諾伊州通過人權法修正案,致力解決人工智慧可能造成之就業歧視風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 22px;} .NoPindent{text-indent: 2em; margin-left: 38px;} .No2indent{margin-left: 54px;} .No2Pindent{text-indent: 2em; margin-left: 54px} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 伊利諾伊州通過人權法修正案,致力解決人工智慧可能造成之就業歧視風險 資訊工業策進會科技法律研究所 2024年12月09日 伊利諾伊州人權法修正案(Amendment to the Illinois Human Rights Act)於2024年8月由伊利諾伊州州長簽署並通過,成為繼科羅拉多州人工智慧消費者保護法(Consumer Protections for Artificial Intelligence Act)之後美國第二部監管私部門使用人工智慧的法律。 本法規範重點在於解決人工智慧導入就業市場而衍生之就業歧視議題,伊利諾伊州透過修訂伊利諾伊州人權法,增加人工智慧(Artificial Intelligence)與生成式人工智慧(Generative Artificial Intelligence)之法律定義[1],以及增加伊利諾伊州的雇主使用人工智慧的相關義務,使員工在就業法律方面獲得更完善之保障。 壹、事件摘要 近年來人工智慧大量被使用在就業市場,例如:雇主使用人工智慧自動篩選履歷、績效管理等等。[2]人工智慧所伴隨的就業歧視議題,遂成為美國聯邦政府與各州政府近年來之人工智慧法制重點。 2023年2月,伊利諾伊州眾議員Jaime M. Andrade, Jr.將伊利諾伊州人權法修正案提交給議會書記官(Clerk)[3],伊利諾伊州人權法修正案在一系列的審議之後,終於在2024年5月通過參眾議院同意,並於2024年8月9日由伊利諾伊州州長簽署,使伊利諾伊州人權法案成為美國第二部監管私部門使用人工智慧的法律[4],修正部分將於2026年1月1日生效。[5] 貳、重點說明 伊利諾伊州人權法(Illinois Human Rights Act,775 ILCS 5)由伊利諾伊州人權部(The Illinois Department of Human Rights,IDHR)負責執行。其宗旨為確保伊利諾伊州內之所有人免受歧視,並就主要領域訂定規範,包含「公平住宅」、「金融」、「公共場所」、「教育領域之性騷擾」以及「就業」[6],其中有關就業歧視之議題為第5節所規範。 伊利諾伊州人權法修正案之目的為解決雇主使用人工智慧工具導致的就業歧視問題,因此主要修訂伊利諾伊州人權法案第5節有關「就業」之規定[7]。而有關本修正法案之執行細節,如通知方式、期限,由伊利諾伊州人權法授權伊利諾伊州人權部訂定並執行。[8] 一、法案修正內容 (一)增訂人工智慧與生成式人工智慧之定義 伊利諾伊州人權法修正案所修訂之範圍涵蓋人工智慧與生成式人工智慧之定義與使用,將新增於伊利諾伊州人權法第5節第2-101小節M款與N款: 1. 人工智慧(Artificial Intelligence)定義 伊利諾伊州人權法修正案將人工智慧定義為一種機器系統,該系統根據其接收之輸入資訊,為目標(不論明確或模糊)推論輸出結果,例如預測、內容、推薦或決策,這些輸出結果能夠影響真實與虛擬環境。[9]須注意此處所指人工智慧包含生成式人工智慧。[10] 2. 生成式人工智慧(Generative Artificial Intelligence)定義 新增之第5節第2-101小節N款將生成式人工智慧定義為一種自動化計算系統,當接受人類的提示、描述或問題,能生成模擬人類所創作之內容加以輸出,其生成內容包含且不限於文字、圖像、多媒體等。[11] (二)雇主不得因使用人工智慧導致員工權利受侵害 所謂「雇主」(Employer),根據伊利諾伊州人權法第5節第2-101小節B項之規定,係指在伊利諾伊州內雇用員工(Employee)者,其員工數目只要達一名即符合雇主之定義。[12]而依據伊利諾伊州人權法修正案之修訂內容,雇主所使用之人工智慧不得導致員工在招聘、僱用、晉升、續聘、培訓、解僱、紀律處分、任期或雇用條件等方面受到歧視。[13] 例如根據1964年《民權法》(Civil Rights Act of 1964)第七章,雇主在僱用、解雇、晉升等方面,不得因種族、膚色、國籍、性別或宗教信仰表現出就業歧視行為。[14]而民權法第七章所認定之歧視範圍包含了歧視性編碼(discriminatory coding),例如郵遞區號(Zip Codes),因為有許多少數族群會居住在特定區域。[15] 有鑑於此,伊利諾伊州人權法修正案也規範雇主於使用人工智慧時,不得使用郵遞區號作為本條款的替代指標[16],避免因郵遞區號造成就業歧視。 (三)雇主負有主動通知員工使用人工智慧工具情形之義務 伊利諾伊州人權法修正案新增雇主之通知義務,凡有使用人工智慧從事招聘、僱用、晉升、續聘、培訓、解僱、紀律處分、任期或雇用條件者,不得於未通知員工的情況下使用人工智慧為上述目的。[17]意即雇主應該主動應告知其員工有使用人工智慧進行前述行為之情事,至於通知的方式與時限則有待伊利諾伊州人權部訂定。 二、違法效力與救濟方式 (一)雇主可能需要負擔損害賠償費用與民事罰款 違反伊利諾伊州人權法修正案有關就業歧視禁止規範者,等同違反伊利諾伊州人權法。根據伊利諾伊州人權法第8-108條與第8-109條,違反者需要負擔相應的損害賠償,包含財產與非財產上的損害賠償費用[18],以及復職等補救措施。[19]除此之外,違反之雇主也可能面臨民事處罰。[20] (二)權利受侵害者得向伊利諾伊州人權部提起申訴或向法院提起訴訟 伊利諾伊州人權法案賦予民眾得以尋求救濟之權利,其方式大致有二,一為向伊利諾伊州人權部提出申訴,二則是直接向法院提起訴訟。 向伊利諾伊州人權部申訴者,將由人權部進行調查與調解[21]。調查後,伊利諾伊州人權部將提供申訴人調查報告[22],該調查報告將就申訴人遭受違法權利侵害之實質證據提出建議。[23]在伊利諾伊州人權部完成調查後,申訴人仍可至法院提起訴訟。[24] 參、事件評析 一、人工智慧就業歧視為美國當前優先處理之法制議題,雇主應加強法遵意識 演算法偏見所導致的歧視問題,正是美國各州政府所欲立法解決之議題。雖然尚未出現聯邦層級之法律,但各州卻於今年陸續通過相關法案。例如科羅拉多州州長於今年5月17日所簽署之《科羅拉多州人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act)[25]、猶他州以及本文介紹之伊利諾伊州人權法修正案,皆已針對人工智慧就業歧視訂定相應規範。 在人工智慧的監管趨勢中,雇主應善加注意人工智慧之應用是否符合當地法規範,以避免遭受處罰。 二、立法方式採修訂既有法律,執行細節另行訂定 伊利諾伊州人權法修正案將有關使用人工智慧之規定增訂於《伊利諾伊州人權法》,其執行細節則授權伊利諾伊州人權部訂定,尤其伊利諾伊州人權法修正案之部分條文僅說明雇主使用的人工智慧不得導致員工在招聘、聘用、晉升、解僱、紀律或僱用條款、特權或條件等方面受到基於受保護類別的歧視,並未詳細規定雇主應以何方式避免之,因此仍有持續關注之必要。 三、本法賦予當事人申訴管道,較完整保障就業權利 伊利諾伊州人權法可以作為民眾權利之請求基礎,向伊利諾伊州人權部提出申訴或至法院訴訟。因此當伊利諾伊州雇主違反伊利諾伊州人權法時,其員工得依法主張權利,可以請求復職或損害賠償,而非只是由主管機關對雇主裁罰。故對於當事人之就業權利,有相對完整之保障。 [1]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). [2]Illinois Enacts New Law Regulating Employer Use of Artificial Intelligence, Lexology, https://www.lexology.com/library/detail.aspx?g=dfebd021-1398-41eb-92ee-9631183fa8ce (last visited Sep. 9, 2024). [3]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [4]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [5]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [6]Illinois Human Rights Act, 775 ILCS §§1-5(2024). [7]Illinois Human Rights Act, 775 ILCS §5 (2024). [8]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). The Department shall adopt any rules necessary for the implementation and enforcement of this subdivision, including, but not limited to, rules on the circumstances and conditions that require notice, the time period for providing notice, and the means for providing notice. [9]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Artificial intelligence" means a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. [10]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Artificial intelligence" includes generative artificial intelligence. [11]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Generative artificial intelligence" means an automated computing system that, when prompted with human prompts, descriptions, or queries, can produce outputs that simulate human-produced content, including, but not limited to, the following: (1) textual outputs, such as short answers, essays, poetry , or longer compositions or answers; (2) image outputs, such as fine art, photographs, conceptual art, diagrams, and other images; (3) multimedia outputs, such as audio or video in the form of compositions, songs, or short-form or long-form audio or video; and (4) other content that would be otherwise produced by human means. [12]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Employer" includes: (a) any person employing one or more employees within Illinois during 20 or more calendar weeks within the calendar year of or preceding the alleged violation. [13]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [14]Civil Rights Act of 1964, title VII, 29 CFR Part 1601. [15]Civil Rights Act of 1964, title VII, 29 CFR Part 1601. [16]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [17]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [18]Illinois Human Rights Act, 775 ILCS §5/8-108 (2024). [19]Illinois Human Rights Act, 775 ILCS §5/8-109 (2024). [20]Illinois Human Rights Act, 775 ILCS §5/8A-104 (2024). [21]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [22]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [23]Illinois Department of Human Right, Charge Process, https://dhr.illinois.gov/filing-a-charge/legal-review.html (last visited Oct. 22, 2024). [24]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [25]Consumer Protections for Artificial Intelligence, Colorado General Assembly, https://leg.colorado.gov/bills/sb24-205 (last visited Oct. 22, 2024).

AT&T 控告資料掮客非法竊取客戶通話紀錄

  AT&T 在 8 月 24 日 控告 25 個販賣資料的掮客( data broker ),在其訴狀中指出大約有 2500 個客戶的個人紀錄被非法竊取, AT & T 已通知相關客戶已被通知並凍結其帳戶。   AT&T 並未於訴狀中明確地列出被告的名字,表示目前必須利用電腦郵件以及電腦 IP 位址來確認被告為哪些人, AT&T 宣稱一旦這些資料掮客經鑑定被確認後,除了賠償 AT&T 的損害之外,還須償還其販賣資料所獲得的不法利益。   PrivacyToday.com 網站的總裁表示,「買資料的人無處不在,但只有少數的人會非法竊取客戶資料,而這少部分的人大多都可以被追蹤的到。」   這並非唯一的案例,未來將會有越來越多相似的問題產生。被竊取的資料不僅僅只有電話紀錄,還有銀行、醫療或其他個人敏感資料,每分每秒都有人在想著如何取到私密資料並從中獲得不法利益。目前州及聯邦已經考慮立法,將有關電話紀錄的欺騙行為判定為不法行為。

TOP