新搜尋技術將改變數位內容產業的版圖

     美國麻省理工學院企業論壇 (MIT Enterprise Forum) 日前在紐約市舉行了專家座談會,與會專家指出,新的網路搜尋技術,將改變數位內容產業的版圖。一個最重要的技術躍進,在於突破目前以文字為搜尋條件的限制,未來,透過新的技術,使用者將可以圖像、聲音甚至影片來進行搜尋。如此,數位內容產業的傳播將會更具效率,整個產業的發展也會更迅速,消費者也能更快速地享受到各種數位內容。且讓我們拭目以待。

相關連結
※ 新搜尋技術將改變數位內容產業的版圖, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=698&no=55&tp=1 (最後瀏覽日:2026/02/25)
引註此篇文章
你可能還會想看
Nokia 出售125項專利價值120億美元

  美國NPE公司Pendrell Corporation日前宣布從Nokia收購了125項專利。根據Pendrell Corporation之發言可知,前揭125項專利當中,共有81項專利為關鍵專利(essential patent)。主要涉及領域包括運用於智慧型手持裝置、桌上型電腦、MP3播放器等電子設備的多種基礎記憶體技術,其中尚包括以SD卡為主之嵌入式快閃記憶體技術。   市場分析師預估上開技術的全球市場在今年(2013)將有超過120億美元的價值,若僅論及SD卡市場,其價值甚至在2018年將超過210億美元。   依據雙方契約內容可知,為延續Nokia位於芬蘭之研發投入,Pendrell Corporation亦已成立一名為赫爾辛基記憶體技術(Helsinki Memory Technologies,HMT)之子公司。Nokia有權使用HMT未來所收購及所開發之所有專利。又,前揭專利之授權金收入均將運用於進一步之研發活動。   Pendrell Corporation之智財長Joseph Siino則指出,將購自Nokia之125項專利與該公司原有之其他智財組合結合後,除可提供持續性創新之用以外,亦可以公平合理的價格出售給全世界對其感興趣的公司。   赫爾辛基當地律師事務所之合夥律師Jan Lindberg表示大公司將更積極於出售已非其核心資產之專利資產。但應注意對專利之鑑價時有變化。以本件為例,便應考量Nokia之在赫爾辛基交易所之市值僅餘123億美元。

伊利諾伊州通過人權法修正案,致力解決人工智慧可能造成之就業歧視風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 22px;} .NoPindent{text-indent: 2em; margin-left: 38px;} .No2indent{margin-left: 54px;} .No2Pindent{text-indent: 2em; margin-left: 54px} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 伊利諾伊州通過人權法修正案,致力解決人工智慧可能造成之就業歧視風險 資訊工業策進會科技法律研究所 2024年12月09日 伊利諾伊州人權法修正案(Amendment to the Illinois Human Rights Act)於2024年8月由伊利諾伊州州長簽署並通過,成為繼科羅拉多州人工智慧消費者保護法(Consumer Protections for Artificial Intelligence Act)之後美國第二部監管私部門使用人工智慧的法律。 本法規範重點在於解決人工智慧導入就業市場而衍生之就業歧視議題,伊利諾伊州透過修訂伊利諾伊州人權法,增加人工智慧(Artificial Intelligence)與生成式人工智慧(Generative Artificial Intelligence)之法律定義[1],以及增加伊利諾伊州的雇主使用人工智慧的相關義務,使員工在就業法律方面獲得更完善之保障。 壹、事件摘要 近年來人工智慧大量被使用在就業市場,例如:雇主使用人工智慧自動篩選履歷、績效管理等等。[2]人工智慧所伴隨的就業歧視議題,遂成為美國聯邦政府與各州政府近年來之人工智慧法制重點。 2023年2月,伊利諾伊州眾議員Jaime M. Andrade, Jr.將伊利諾伊州人權法修正案提交給議會書記官(Clerk)[3],伊利諾伊州人權法修正案在一系列的審議之後,終於在2024年5月通過參眾議院同意,並於2024年8月9日由伊利諾伊州州長簽署,使伊利諾伊州人權法案成為美國第二部監管私部門使用人工智慧的法律[4],修正部分將於2026年1月1日生效。[5] 貳、重點說明 伊利諾伊州人權法(Illinois Human Rights Act,775 ILCS 5)由伊利諾伊州人權部(The Illinois Department of Human Rights,IDHR)負責執行。其宗旨為確保伊利諾伊州內之所有人免受歧視,並就主要領域訂定規範,包含「公平住宅」、「金融」、「公共場所」、「教育領域之性騷擾」以及「就業」[6],其中有關就業歧視之議題為第5節所規範。 伊利諾伊州人權法修正案之目的為解決雇主使用人工智慧工具導致的就業歧視問題,因此主要修訂伊利諾伊州人權法案第5節有關「就業」之規定[7]。而有關本修正法案之執行細節,如通知方式、期限,由伊利諾伊州人權法授權伊利諾伊州人權部訂定並執行。[8] 一、法案修正內容 (一)增訂人工智慧與生成式人工智慧之定義 伊利諾伊州人權法修正案所修訂之範圍涵蓋人工智慧與生成式人工智慧之定義與使用,將新增於伊利諾伊州人權法第5節第2-101小節M款與N款: 1. 人工智慧(Artificial Intelligence)定義 伊利諾伊州人權法修正案將人工智慧定義為一種機器系統,該系統根據其接收之輸入資訊,為目標(不論明確或模糊)推論輸出結果,例如預測、內容、推薦或決策,這些輸出結果能夠影響真實與虛擬環境。[9]須注意此處所指人工智慧包含生成式人工智慧。[10] 2. 生成式人工智慧(Generative Artificial Intelligence)定義 新增之第5節第2-101小節N款將生成式人工智慧定義為一種自動化計算系統,當接受人類的提示、描述或問題,能生成模擬人類所創作之內容加以輸出,其生成內容包含且不限於文字、圖像、多媒體等。[11] (二)雇主不得因使用人工智慧導致員工權利受侵害 所謂「雇主」(Employer),根據伊利諾伊州人權法第5節第2-101小節B項之規定,係指在伊利諾伊州內雇用員工(Employee)者,其員工數目只要達一名即符合雇主之定義。[12]而依據伊利諾伊州人權法修正案之修訂內容,雇主所使用之人工智慧不得導致員工在招聘、僱用、晉升、續聘、培訓、解僱、紀律處分、任期或雇用條件等方面受到歧視。[13] 例如根據1964年《民權法》(Civil Rights Act of 1964)第七章,雇主在僱用、解雇、晉升等方面,不得因種族、膚色、國籍、性別或宗教信仰表現出就業歧視行為。[14]而民權法第七章所認定之歧視範圍包含了歧視性編碼(discriminatory coding),例如郵遞區號(Zip Codes),因為有許多少數族群會居住在特定區域。[15] 有鑑於此,伊利諾伊州人權法修正案也規範雇主於使用人工智慧時,不得使用郵遞區號作為本條款的替代指標[16],避免因郵遞區號造成就業歧視。 (三)雇主負有主動通知員工使用人工智慧工具情形之義務 伊利諾伊州人權法修正案新增雇主之通知義務,凡有使用人工智慧從事招聘、僱用、晉升、續聘、培訓、解僱、紀律處分、任期或雇用條件者,不得於未通知員工的情況下使用人工智慧為上述目的。[17]意即雇主應該主動應告知其員工有使用人工智慧進行前述行為之情事,至於通知的方式與時限則有待伊利諾伊州人權部訂定。 二、違法效力與救濟方式 (一)雇主可能需要負擔損害賠償費用與民事罰款 違反伊利諾伊州人權法修正案有關就業歧視禁止規範者,等同違反伊利諾伊州人權法。根據伊利諾伊州人權法第8-108條與第8-109條,違反者需要負擔相應的損害賠償,包含財產與非財產上的損害賠償費用[18],以及復職等補救措施。[19]除此之外,違反之雇主也可能面臨民事處罰。[20] (二)權利受侵害者得向伊利諾伊州人權部提起申訴或向法院提起訴訟 伊利諾伊州人權法案賦予民眾得以尋求救濟之權利,其方式大致有二,一為向伊利諾伊州人權部提出申訴,二則是直接向法院提起訴訟。 向伊利諾伊州人權部申訴者,將由人權部進行調查與調解[21]。調查後,伊利諾伊州人權部將提供申訴人調查報告[22],該調查報告將就申訴人遭受違法權利侵害之實質證據提出建議。[23]在伊利諾伊州人權部完成調查後,申訴人仍可至法院提起訴訟。[24] 參、事件評析 一、人工智慧就業歧視為美國當前優先處理之法制議題,雇主應加強法遵意識 演算法偏見所導致的歧視問題,正是美國各州政府所欲立法解決之議題。雖然尚未出現聯邦層級之法律,但各州卻於今年陸續通過相關法案。例如科羅拉多州州長於今年5月17日所簽署之《科羅拉多州人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act)[25]、猶他州以及本文介紹之伊利諾伊州人權法修正案,皆已針對人工智慧就業歧視訂定相應規範。 在人工智慧的監管趨勢中,雇主應善加注意人工智慧之應用是否符合當地法規範,以避免遭受處罰。 二、立法方式採修訂既有法律,執行細節另行訂定 伊利諾伊州人權法修正案將有關使用人工智慧之規定增訂於《伊利諾伊州人權法》,其執行細節則授權伊利諾伊州人權部訂定,尤其伊利諾伊州人權法修正案之部分條文僅說明雇主使用的人工智慧不得導致員工在招聘、聘用、晉升、解僱、紀律或僱用條款、特權或條件等方面受到基於受保護類別的歧視,並未詳細規定雇主應以何方式避免之,因此仍有持續關注之必要。 三、本法賦予當事人申訴管道,較完整保障就業權利 伊利諾伊州人權法可以作為民眾權利之請求基礎,向伊利諾伊州人權部提出申訴或至法院訴訟。因此當伊利諾伊州雇主違反伊利諾伊州人權法時,其員工得依法主張權利,可以請求復職或損害賠償,而非只是由主管機關對雇主裁罰。故對於當事人之就業權利,有相對完整之保障。 [1]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). [2]Illinois Enacts New Law Regulating Employer Use of Artificial Intelligence, Lexology, https://www.lexology.com/library/detail.aspx?g=dfebd021-1398-41eb-92ee-9631183fa8ce (last visited Sep. 9, 2024). [3]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [4]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [5]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [6]Illinois Human Rights Act, 775 ILCS §§1-5(2024). [7]Illinois Human Rights Act, 775 ILCS §5 (2024). [8]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). The Department shall adopt any rules necessary for the implementation and enforcement of this subdivision, including, but not limited to, rules on the circumstances and conditions that require notice, the time period for providing notice, and the means for providing notice. [9]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Artificial intelligence" means a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. [10]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Artificial intelligence" includes generative artificial intelligence. [11]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Generative artificial intelligence" means an automated computing system that, when prompted with human prompts, descriptions, or queries, can produce outputs that simulate human-produced content, including, but not limited to, the following: (1) textual outputs, such as short answers, essays, poetry , or longer compositions or answers; (2) image outputs, such as fine art, photographs, conceptual art, diagrams, and other images; (3) multimedia outputs, such as audio or video in the form of compositions, songs, or short-form or long-form audio or video; and (4) other content that would be otherwise produced by human means. [12]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Employer" includes: (a) any person employing one or more employees within Illinois during 20 or more calendar weeks within the calendar year of or preceding the alleged violation. [13]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [14]Civil Rights Act of 1964, title VII, 29 CFR Part 1601. [15]Civil Rights Act of 1964, title VII, 29 CFR Part 1601. [16]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [17]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [18]Illinois Human Rights Act, 775 ILCS §5/8-108 (2024). [19]Illinois Human Rights Act, 775 ILCS §5/8-109 (2024). [20]Illinois Human Rights Act, 775 ILCS §5/8A-104 (2024). [21]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [22]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [23]Illinois Department of Human Right, Charge Process, https://dhr.illinois.gov/filing-a-charge/legal-review.html (last visited Oct. 22, 2024). [24]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [25]Consumer Protections for Artificial Intelligence, Colorado General Assembly, https://leg.colorado.gov/bills/sb24-205 (last visited Oct. 22, 2024).

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

日本內閣府公開徵集「研究安全和風險管理系統開發支援計畫」,加強研究安全保障

日本內閣府公開徵集「研究安全和風險管理系統開發支援計畫」,加強研究安全保障 資訊工業策進會科技法律研究所 2025年03月10日 壹、事件摘要 內閣府科學技術創新推進事務局(科学技術・イノベーション推進事務局),於2025年2月19日發布公告,自2025年2月19日至3月24日公開徵集國內負責經濟安全重要技術的補助機關和研究機構加入「研究安全和風險管理系統開發支援計畫」 [1](研究セキュリティ・インテグリティに関するリスクマネジメント体制整備支援事業,下簡稱研究安全計畫),以加強研究安全之保障。 貳、重點說明 日本曾發生研究者在不知情的情形下與北韓研究者共著論文而危害研究安全事件,根據日本經濟新聞2024年11月28日報導,自2016年底北韓受到聯合國加強制裁以來,共有八篇北韓研究機構的國際共著論文發表,包含東京大學、名古屋大學等日本五所大學的研究者皆在共同著作者之列,雖研究者皆表示與北韓無聯繫,但此行為仍可能違反聯合國制裁規定,且一名涉及本事件的研究者在論文發表後,仍被任命為國內主導研究計畫的主持人,負責百億日圓預算及先進技術的管理,顯示日本研究安全管理問題[2]。 為避免類似事件發生及提升日本科技實力,以及配合G7國家關於研究安全與誠信的政策,內閣府公開徵集負責經濟安全重要技術的補助機關和研究機構加入研究安全計畫。該計畫將蒐集與分析國際合作研究所需的公開資訊,並整合後於2025年出版「研究安全與誠信程序手冊」(RS/RI に関する手順書)。 所謂經濟安全重要技術,係指《促進特定重要技術研發及適當運用成果基本指南》(特定重要技術の研究開発の促進及びその成果の適切な活用に関する基本指針)所列,包含AI、生物技術等先進技術領域[3],內閣府將透過此計畫驗證學研機構所實施之研究安全與誠信措施是否得宜,並與學研機構分享典範實務,參考政府制定的研究安全與誠信規範,提出分析與改善方法。 研究安全計畫將支援日本國內研究機構和其他處理對經濟安全重要技術的機關,在國內外開展聯合研究時採取必要的技術外流防止措施,一方面提供分析資源,如協助分析研究人員及研究機構的公開資訊(職業經歷、其他工作以及研究資金流向等),另一方面支援實施風險管理的相關費用,並針對整體防止技術外流的風險控管體系進行評估後給予建議[4]。 研究安全計畫參與對象為補助研發之機關及領取補助進行研究開發的機構(如公立研究機構、研究開發公司、大學等),且應有足夠能力執行完整風險控管計畫。另計畫評選期間,研究機構不得有內閣府所定停止補助、停止推薦等情形[5]。 內閣府為結合國家政策與國際標準,全面提升日本在經濟安全重要技術領域的研究安全與誠信管理能力,透過分析與資金支援,協助研究機構構建完善的風險控管體系,確保研究中的技術外流防範措施得以落實。此舉不僅為日本科技實力的長期發展奠定基石,亦為維護國家經濟安全及國際信譽提供堅實保障。 參、事件評析 近年研究安全成為國際間之重要議題,為防止技術外流,各國亦有許多政策,如美國國家科學基金會(National Science Foundation, NSF)啟動「保護美國研究生態系統社群 」[6](Safeguarding the Entire Community of the U.S. Research Ecosystem, SECURE)計畫,並成立 SECURE 中心;加拿大政府公告「三機構關於敏感技術研究和關注從屬性政策指南」[7](Tri agency guidance on the Policy on Sensitive Technology Research and Affiliations of Concern, STRAC Policy)等,在如此趨勢下,日本亦開始注重研究安全之保障。 日本內閣府此次推動研究安全計畫,顯示日本政府已深刻意識到研究安全議題的迫切性與重要性。隨著全球科技競爭日益激烈,國際間的技術交流與合作頻繁,但也伴隨著技術外流、竊取敏感研究資訊等風險。尤其是北韓等受國際制裁國家,可能透過隱匿身分或間接合作的方式,取得敏感資訊,對國際社會的安全構成潛在威脅。 日本政府推動研究安全計畫,透過提供分析資源、資金支援及風險控管體系的評估建議,協助研究機構建立完善的防範機制,期望透過以上防範機制,全面提升日本在研究安全管理能力,並確保技術外流防範措施得以落實。 然而,此計畫的推動仍存在一些挑戰與考量。首先,如何在確保研究安全與維護學術自由之間取得平衡,避免過度限制造成研究自主性與創新能力的損害,將是重要課題。此外,背景審查與資訊分析機制的建置,需注意個人隱私保護,避免引發研究人員的反彈與抵制。再者,國際合作研究的審查程序若過於繁瑣,也可能影響日本研究機構與國際間的合作意願,甚至對國際學術地位造成負面影響。 因此,日本政府在推動此項政策時,應積極參考美國、加拿大等國的經驗,建立透明且具彈性的管理制度,並與國際夥伴保持密切溝通,協調一致的研究安全標準,避免孤立於國際科研社群之外。綜上所述,日本此次行動對於提升國內研究安全與誠信管理能力,並維護國家經濟安全,具有正面且積極的意義,未來仍需持續關注政策推行的成效與後續調整方向,以達成長期穩健的發展目標。 [1]〈研究セキュリティ・インテグリティに関するリスクマネジメント体制整備支援事業の公募について〉,內閣府,https://www8.cao.go.jp/cstp/kokusaiteki/integrity/kobo_r7.html (最後瀏覽日:2025/3/10)。 [2]日本経済新聞,〈東大など5大学、知らずに北朝鮮と共同研究 「寝耳に水」〉, 20254/11/28,https://www.nikkei.com/article/DGXZQOUE293WI0Z20C24A1000000/ (最後瀏覽日:2025/3/10)。 [3]〈特定重要技術の研究開発の促進及びその成果の適切な活用に関する基本指針〉,內閣府,https://www.cao.go.jp/keizai_anzen_hosho/suishinhou/doc/kihonshishin3.pdf (最後瀏覽日:2025/3/10)。 [4]〈研究セキュリティ・インテグリティに関するリスクマネジメント体制整備支援事業公募要領〉,內閣府,頁3,https://www8.cao.go.jp/cstp/kokusaiteki/integrity/kobo_r7/kobo_r7.pdf (最後瀏覽日:2025/3/10)。 [5]同前註,頁4。 [6]NSF-backed SECURE Center will support research security, international collaboration, US National Science Foundation, https://www.nsf.gov/news/nsf-backed-secure-center-will-support-research (last visited Mar. 10, 2025). [7]Tri-agency guidance on the Policy on Sensitive Technology Research and Affiliations of Concern (STRAC Policy), Natural Sciences and Engineering Research Council of Canada, https://www.nserc-crsng.gc.ca/InterAgency-Interorganismes/RS-SR/strac-rtsap_eng.asp (last visited Mar. 10, 2025).

TOP