微軟(Microsoft)宣佈又與Linux銷售商簽署,本次合作對象為Linspire公司,而該公司先前曾受到微軟的商標侵權指控。
這兩家公司曾於2004年達成合解,Linspire答應停止使用Lindows一名稱,而微軟為此支付了2千萬美元。Linspire還獲准使用Windows Media的程式碼,並解決了微軟的商標侵權指控問題。
根據達成之協議,兩方將在包括即時通訊(Instant Messaging)和網路搜尋(Web Search)在內的多個領域展開密切合作。對於購買Linspire付費版的用戶將得到相同的法律保障,以規避任何微軟可能對其採取針對Linux桌面軟體的法律行動。但Linspire未計畫在其免費的Freespire產品中提供微軟的技術,以及任何專利保障。
先前微軟曾表示,在Linux系統上的保護行動已成為其最近一系列“交互授權”合約的一部分,如其與LG、三星(Samsung)和Fuji Xerox簽署的一些專利權交易協定。微軟智權總監David Kaefer表示:「這些協議表明,微軟和眾多Linux供應商正為雙方作業系統間能架起一座橋樑而努力不懈」。這些公司並未在協議裏提及商業利益問題,但Kaefer表示:「很顯然,雙方同時都希望在此協商中獲利」。
協議中,Linspire將把微軟的Live Search作為其Linspire產品的預設搜尋引擎,並將獲准繼續使用包括Windows Media 10程式碼在內的Windows Media技術。
微軟還將准許Linspire在其即時通訊工具中使用其部分字體和IP語音技術,而Linspire也將加入Office 2007的XML檔案格式及OpenDocument格式轉換的研發團隊。
新加坡智慧財產局(Intellectual Property Office of Singapore, IPOS)2023年5月發布了一份名為《品牌、專利與企業績效表現的研究報告》(Brands, patents and company performance study),分別針對全球前100大上市公司及新加坡前100大上市公司進行分析,說明智慧財產等無形資產對於企業發展的重要性。 首先,IPOS在報告中對全球前100大上市公司進行分析,若該上市公司同時名列「全球500大最有價值品牌」(英國知名品牌諮詢機構Brand Finance每年發布)及/或「全球專利前250強」(美國知名專利研究公司IFI CLAIMS Patent Services每年發布),報告中將這類上市公司定義為持有最有價值品牌或最強專利組合的企業。這類企業與全球前100大上市公司中的其他企業相比,平均收入(revenue)是其他企業的2.2倍、淨利(net profit)是其他企業的1.9倍、市值(market capitalisation)是其他企業的2.3倍。 其次,本報告以新加坡前100大上市公司為分析對象,其中持有最有價值品牌(同時名列「新加坡100大最有價值品牌」)及/或最強專利組合(根據PatSnap專利資料庫的檢索資料定義)的上市公司,與新加坡前100大上市公司中的其他企業相比,平均收入是其他企業的2.4倍、淨利是其他企業的1.8倍、市值是其他企業的2.7倍。 由新加坡發布的報告可知,品牌或專利等無形資產對於企業維持競爭優勢的重要性,企業應將智慧財產布局與管理列為公司治理的重點,持續確保企業無形資產的價值(譬如企業若未持續落實商標布局與管理,將會削弱品牌價值),以強化企業的競爭力。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
日本P2P軟體Winny開發者再遭起訴,並具體求刑一年日本東京地檢署以助長著作權侵害為由,於 7 月 3 日 向東京地方法院對日本知名檔案交換軟體( P2P ) Winny 的開發者金子 勇提起訴訟,並具體求處有期徒刑一年。這是繼 2004 年 5 月京都地檢署起訴金子 勇後,對同一 P2P 軟體開發者另為起訴的案件。 2002 年,東京大學資訊理工學系研究助理金子 勇開發出可供他人使用的分散式 P2P 軟體 Winny ,旋即受到廣大網友的歡迎。使用者透過 Winny ,不僅交換著未經授權的音樂、影片檔案,甚至包括了部份的警方或自衛隊官方文件。而日本各大企業,如日本雅虎、富士通及 NEC 等,也陸續傳出因公司職員使用 Winny 而導致員工及客戶個人資料外洩的事件。 針對 Winny 開發者起訴案件,目前京都地方法院尚未作出判決,而日本東京地方法院已預定於 9 月 4 日 進行公開審判。此外,因應 Winny 所肇致的資安問題,各相關企業也順勢推出可過濾 Winny 的軟硬體設備,如日本京瓷公司( KCCS )即於 7 月 10 推出企業網路管理軟體,除可偵測內部電腦是否安裝 Winny 外,亦可阻絕已安裝 Winny 的電腦連接至企業網路。
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。