2017年10月,美國知名保險公司Farmers Insurance Group(下稱Farmers)在加州法院提訴,控告前員工Venkatesh Kamath(下稱Kamath)、前資訊長Shohreh Abedi(下稱Abedi)和競爭對手American Automobile Association(下稱AAA協會)旗下的Automobile Club of Michigan(下稱Auto Club)竊取營業秘密。
Farmers聲稱,於2015年起使用Guidewire Software(下稱Guidewire),以更新其理賠處理和保險服務系統。Kamath因Guidewire業務,接觸到Farmers高度敏感與機密資訊。Abedi前為Kamath上司,曾監督Guidewire計畫初期階段。之後Abedi至Auto Club任職,協助Auto Club轉換使用Guidewire,並挖角包括Kamath在內許多Farmers員工。Kamath離職前,從Farmers電腦中拷貝超過6400份檔案,其中包括與Guidewire計畫及Famers核心業務相關的營業秘密資訊。
Farmers控訴Kamath、Abedi及Auto Club違反加州營業秘密法(California Trade Secret Act)、從事不公平競爭、違反忠實義務及其他事由,除訴請賠償外,也請求法院禁止被告使用其營業秘密。
本案非Farmers與AAA協會首次因營業秘密事宜而對訟。2010年間,Farmers曾控告AAA協會旗下Auto Club Group竊取其投保客戶機密資訊,惟該案當時經法院以Farmers未能證明有何損失或損害為由,駁回其訴。Farmers公司於2017年10月對Auto Club提起的本件訴訟,法院實務的發展為何,值得後續觀察。
由於新興通訊技術的應用與網路頻寬的快速成長,透過網路收看電視已不再是遙不可及的科技願景。網路電視(Internet Protocol Television;IPTV)在許多國家都已經是逐漸應用成熟的服務,但是相對而言,法規的管制架構卻多仍處於追趕摸索的階段。 網路電視之相關法制爭議眾多,曾被提出討論者如攸關管制基準之網路電視定位,是否視同傳統廣播電視加以管制?相關之義務是否比照要求(如對於無線電視之必載義務)?網路電視市場之界定?市場力量之監督與公平競爭環境之維護等,皆為重要的關注焦點。 韓國國會傳播特別委員會於上月(11月)通過一項網路電視法案(IPTV Bill),對於重要之網路電視相關規範加以界定。此一國會傳播特別委員會所通過之網路電視服務法草案,對未來網路電視可能的市場主導者(包含廣播電視公司、網際網路服務提供者、電信公司等)之行為,事先加以規範。例如規定KT等重要電信公司提供網路電視服務並不需要另行成立附屬公司;另一方面,廣播電視公司未來將可提供全國性的網路電視服務,惟其市場佔有率將限於整體市場的三分之一以下。 未來的網路電視型態可能包含被動收視或主動要求播送,其他附加的服務更包含透過網路電視進行購物、遊戲、金融服務等,潛藏之商機已引起各界注意,也值得國內盡早思考整體管制架構,促進產業成熟發展。
基因資訊醫療運用與業務過失 防範網路釣魚──事後追究有其侷限,多管齊下始屬正途 OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。