本文為「經濟部產業技術司科技專案成果」
根據路透社(Reuters)報導指出,Google,和日前亦接獲到Klausner Technologies公司之專利訴訟LG, Apple,Skype以同意授權方式,結束可視覺化語音信箱(visual voicemail)之智慧財產權訴訟案。 提出訴訟案為Klausner Technologies公司之CEO,亦為可視覺化語音信箱技術發明人Judah Klausner,其擁有美國、歐洲與亞洲之專利。目前市場上熱門的可觸控式手機具有可視覺化語音信箱特性,包含Apple’s iPhone都具有其功能性。 此案主要涉及Klausner之專利擁有可視覺化語音信箱技術,類似電子郵件,使用者可利用電腦或電話傳送可視覺化之語音訊息,並讓使用者具選擇性收取訊息。 目前Google擁有兩種服務,受Klausner’s專利之影響,其一讓使用者透過Grand Central提供一簡單網際網路語音溝通平台,另一為具Android自由軟體平台之智慧型手機。該案以和解方式結束,但Klausner婉拒與路透社說明,該公司與Google之間協議內容。
Serenex控訴員工竊取癌症新藥商業機密資料美國公司Serenex,指控兩位離職的舊員工,竊取實驗用癌症藥物,並賣給中國公司。Serenex控訴先前聘僱的化學家黃雲生是國際商業間諜,黃雲生偷竊Serenex的商業機密,並用偷來的資料來提供給海外尋找專利的公司。員工竊取機密已經是個日趨嚴重的問題,尤其是對全球型的企業,以及智慧財產為主的公司。 Serenex擁有30個員工,目前正進行實驗性癌症藥物的人體測試。根據報告Serenex自2001年設立後,所募得的風險資本已從2千6百萬美元提升至8千1百萬美元。為此,Serenex在威克高等法院提起訴訟,同時也將北京國藥龍立科技公司、基爾生物科技公司以及負責人Tongxiang Zhang列為被告。 Serenex的律師Jonathan Sasser表示,Serenex以提出訴訟的方式來保護他們的產品,並且希望調查是被百分之百確信,沒有人會去提出偽造的主張,並在起訴書上陳述,黃雲生在竊取機密後,Serenex於二月時將他解雇,但是黃雲生的律師Walter Schmidlin抗辯說明黃雲生自願離職,並且否認有做任何不法情事。Schmidlin同時表示Serenex並不能提出任何證據證明黃雲生拿了商業機密資料。
智慧電網重要法制議題研析探討及因應 OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。