淺析企業如何善用無形資產獲取商業利基

刊登期別
第18卷,第02期,2006年02月
 

※ 淺析企業如何善用無形資產獲取商業利基, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=302&no=0&tp=1 (最後瀏覽日:2025/11/21)
引註此篇文章
你可能還會想看
世界衛生組織透過「COVID-19疫苗全球取得機制COVAX」,促進疫苗研發及公平分配

  世界衛生組織(World Health Organization, WHO)於2020年8月24日公布「COVID-19疫苗全球取得機制(COVID-19 Vaccines Global Access Facility, COVAX)」,由全球疫苗與預防注射聯盟(Global Alliance for Vaccines and Immunisation, GAVI)、流行病預防創新聯盟(Coalition for Epidemic Preparedness Innovations, CEPI)及WHO共同主導,與多家疫苗廠商合作,協助取得多種疫苗組合的授權及核准,促進COVID-19全球疫苗研發及公平分配。   COVAX是WHO「獲取COVID- 19工具加速計畫(Access to COVID-19 Tools Accelerator, ACT Accelerator)」下的疫苗分配機制。ACT-Accelerator透過匯集各國政府、衛生機構、科學界、產業界、民間團體的力量,共同合作開發創新診斷方法、加速融資研發治療工具、制定公平分配與交付疫苗機制、確保衛生系統與社區網路連接等四大領域,以盡快結束大流行疫情。   COVAX作為COVID-19疫苗聯合採購機制,預計2021年底要提供20億劑疫苗,籌資181億美元;由GAVI與高收入國家簽訂投資契約,透過全球融資機制採購9.5億劑疫苗,同時搭配WHO制定的疫苗倫理分配架構,使COVAX能夠集中各國經濟體的購買力,保證候選疫苗的採購數量,鼓勵擁有專業知識的疫苗廠商盡速投入大規模的新疫苗生產,確保參與COVAX的國家及經濟體,皆能迅速、公平公正地取得大量有效的疫苗。   COVAX承諾將為全球92個中低收入經濟體提供參與COVAX的融資工具;超過80個高收入經濟體已提交參與COVAX的意向書,將從公共財政預算中編列全球疫苗研發的捐助資金,並與92個中低收入國家結成疫苗合作夥伴。透過COVAX機制產出的疫苗,將會按照參與國人口比例公平地分配給所有國家,並且優先提供疫苗給衛生醫療工作者、老年人及疾病弱勢群體;隨後再根據各國家需求、易受感染程度與COVID-19威脅情況,提供更多劑量的支援。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

美國發布《新興科技優先審查架構》 加速政府機構導入AI技術

美國聯邦總務署(General Service Administration)於2024年6月27日發布《新興科技優先審查架構》(Emerging Technologies Prioritization Framework),該架構係為回應拜登總統針對AI安全所提出之第14110號行政命令,而在「聯邦政府風險與授權管理計畫」(Federal Risk and Authorization Management Program,以下簡稱FedRAMP)底下所設置之措施。 一般而言,雲端服務供應商(cloud service providers)若欲將其產品提供予政府單位使用,需依FedRAMP相關規範等候審查。《新興科技優先審查架構》則例外開放,使提供「新興科技」產品之雲端服務供應商得視情況優先審查。 現階段《新興科技優先審查架構》所定義之「新興科技」係為提供下列四種功能的生成式AI技術: 1.聊天介面(chat interface):提供對話式聊天介面的產品。允許用戶輸入提示詞(prompts),然後利用大型語言模型產出內容。 2.程式碼生成與除錯工具(code generation and debugging tools):軟體開發人員用來協助他們開發和除錯軟體的工具。 3.圖片生成(prompt-based image generators):能根據使用者輸入之文字或圖像而產生新圖像或影像的產品。 4.通用應用程式介面(general purpose API):基於API技術將前述三項功能加以整合的產品。 美國政府為挑選最具影響力的產品,要求雲端服務供應商繳交相關資料以利審查,例如公開的模型卡(model card)。模型卡應詳細說明模型的細節、用途、偏見和風險,以及資料、流程和參數等訓練細節。此外,模型卡應包含評估因素、指標和結果,包括所使用的評估基準。 《新興科技優先審查架構》第一波的申請開放至2024年8月31日,且FedRAMP將於9月30日宣布優先名單。這項措施將使生成式AI技術能夠以更快的速度被導入政府服務之中。

法國資料保護機關要求Clearview AI刪除非法蒐集的個人資料

  法國國家資訊自由委員會(Commission nationale de l’informatique et des libertés, CNIL)自2020年5月起陸續收到民眾對臉部辨識軟體公司Clearview AI的投訴,並展開調查。嗣後,CNIL於2021年12月16公布調查結果,認為Clearview AI公司蒐集及使用生物特徵識別資料(biometric data)的行為,違反《一般資料保護規範》(General Data Protection Regulation,GDPR)的規定,分別為: 非法處理個人資料:個人資料的處理必須符合GDPR第6條所列舉之任一法律依據,始得合法。Clearview AI公司從社群網路蒐集大量全球公民的照片與影音資料,並用於臉部辨識軟體的開發,其過程皆未取得當事人之同意,故缺乏個人資料處理的合法性依據。 欠缺保障個資主體的權利:Clearview AI公司未考慮到GDPR第12條、第15條及第17條個資主體權利之行使,特別是資料查閱權,並且忽視當事人的個資刪除請求。   因此,CNIL要求Clearview AI公司必須於兩個月內改善上述違法狀態,包括:(1)在沒有法律依據的情況下,停止蒐集及使用法國人民的個資;(2)促進個資主體行使其權利,並落實個資刪除之請求。若Clearview AI公司未能於此期限內向CNIL提交法令遵循之證明,則CNIL可依據GDPR進行裁罰,可處以最高 2000萬歐元的罰鍰,或公司全球年收入的4%。

TOP