避免昂貴訴訟成本,微軟參與專利審查團隊

  微軟成為crowdsourcing(集結式資訊來源)服務的第一會員,其服務用於對抗專利流氓(patent trolls)所提出昂貴的訴訟,挑戰將訴訟中所使用的軟體專利使之無效。

  Litigation Avoidance是由全球線上社群100萬名科學家及技術人員所組成的Article One Partners所建立的一種付費服務。該組織採用crowdsourcing,其為透過網際網路所採用的一種社交媒體工具,藉由找出前案或先前揭露資料中證明專利無效之證據。而Article One所取得的利潤是由使用crowdsourcing資訊的企業而來的,但並未對外揭露收費的價格。

  根據Article One指出,Litigation Avoidance主要針對的目標是專利流氓,其為購買大量專利,透過所買的專利向其他企業提出訴訟,進而要求權利金或授權金。

  受到專利流氓提出訴訟的微軟指出,Litigation Avoidance服務將是應訴前調查專利品質的另一種工具。微軟首要專利律師Bart Eppenauer說明,”使用Litigation Avoidance服務其目的為降低風險及降低潛在的訴訟成本”。

  Article One試圖解決問題之一,為crowdsourcing技術可於數周內得到專利評估結果,可取代需花費數月或數年始得產生結果的美國專利商標局低效能的專利審查系統。

相關連結
※ 避免昂貴訴訟成本,微軟參與專利審查團隊, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5519&no=57&tp=1 (最後瀏覽日:2026/01/10)
引註此篇文章
你可能還會想看
日本總務省公布「2006年版資訊通信白皮書」

  日本資訊通信領域主管機關「總務省」 7 月 4 日 公布「 2006 年版資訊通信白皮書」。本年度白皮書除按照慣例闡述資訊通信政策之實施現況(第 2 章)以及今後推動方向(第 3 章)外,更本諸過去數年「 u 化社會」( ubiquitous network society )願景之研析成果與發展脈絡,將 u 化社會之願景與現實生活的技術或應用發展趨勢兩相比較,指出於逐步邁向該等願景的同時,社會整體經濟結構的特性也開始有所變化。   基於前開變化主係肇因於技術變遷、應用普及、逐步邁向 u 化社會願景之故,本年度白皮書第 1 章乃將之稱為「 u 化經濟」( ubiquitous economy ),並認為自宏觀角度而言,資通產業對於國家經濟實力之貢獻有增無減;另自微觀角度而言,個別用戶的重要性將會更加凸顯,資訊的流通傳遞也會更有效率,而本諸知識迅速累積分享的結果,生產力同樣可望大幅提昇。今後亦當本諸此等認知,規劃能令個別用戶放心使用之安全環境,弭平基礎建設未能完全普及之數位落差現象,預先具體指明可能發生之爭議課題,妥善探究適合 u 化社會願景實現之因應對策,以利全體國民均能充分享用 u 化社會所能帶來的福祉。

英國資訊專員辦公室強調歐盟資訊保護改革成本充滿不確定性

  英國資訊專員辦公室進行獨立調查時發現, 1、40%的企業沒有充分認識提出的主要條文; 2、87%的企業無法估計公司中業務為因應改革可能支出的成本; 3、82%的受訪者是無法量化其當前資訊保護的開支; 4、在少數的大型組織觀測調查中發現,估計資訊保護的平均花費時常會受到扭曲; 5、當公司擁有超過250名員工或處理超過10萬筆個資紀錄時,絕大多數都已經聘請資訊保護專人; 6、重點業別包括服務業、金融保險業以及公共管理等,需要針對資訊管理有所計畫。   而調查報告在2013年5月14日於柏林舉辦的第三次歐洲資訊保護日會議中提出,資訊專員Christopher Graham表示「必須說,有少數人不同意為面臨21世紀的挑戰,而需要修訂歐洲資訊保護法。但真正進步之實現在於,今日或將來的法律面,針對個人資料有更好的體現。關鍵點在於確實地衡平理論面與執行面中資訊保護權利之平衡點。」   「已經談論過很多關於『什麼是最好的商業』,但這必須基於合法證據。此次的改革的結果會是非常重要的,我們希望敦促歐盟委員會可以考慮並將重點放在制定法律,為消費者提供真正的保障。」   「同樣的,企業和其他的利益相關者必須參與具建設性的義務與隱私權權利的重要性改革,在此過程中仍然可以受到影響」

梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管

  2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」   此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。   目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。

加拿大政府提交予國會《人工智慧資料法案》

  加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。   AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露   i 系統如何或打算如何使用。   ii 系統所生成果的類型及它所做出的決策、建議與預測。   iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。   iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。

TOP