依據12月USPTO公開資訊,微軟(Microsoft)於2016年9月2號提出擴增實境(Augmented Reality,以下簡稱AR)系統之美國發明專利申請(申請號:20160373570)。目前AR系統不僅可投射虛擬訊息,還可偵測物理空間之物體位置,不過因為現實生活中,不管是有生命或無生命物體,都不太可能處於完全靜態不動的狀況;而微軟此技術之開發,除了不限於固定空間外,對移動中的物體更具有自動追蹤效果。
微軟專利指出該系統能辨識無生命物體,並可將該物體被選擇為追蹤對象的技術,這個AR系統可持續監測物體的狀態,不僅在同一空間中不同時間點,甚至是物體離開監控空間又被帶回的情況都可追蹤。從微軟專利可以看到這項技術運用在日常生活的價值,如:我們常常花很多時間在想汽車鑰匙和錢包放在哪裡,但透過這個系統的追蹤,可以節省我們找尋的時間;有時我們會忘記家裡的牛奶還剩多少,而花時間去逛超商,倘若我們運用此追蹤技術,能夠隨時知道牛奶剩餘的狀態,就可以避免這種情況的發生。
上開技術不僅包含AR技術,還有虛擬實境(Virtual Reality,簡稱VR)技術,這些技術能透過虛擬與真實世界合併,將真實世界、人類、空間和物體結合,並可進一步的智慧化追蹤,若這項專利被核准且可真實運用到現實生活,必能減少我們的生活中不必要的麻煩。
「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
蘋果(Apple)與谷歌(Google)旗下的摩托羅拉移動公司(Motorola Mobility)已明確決定就所有有關智慧型手機技術的專利訴訟達成和解。 兩家公司於5月16日周五共同聲明,此次和解並未包含專利交互授權的協議。聲明中指出「蘋果與谷歌亦同意在某些專利改良的領域可進行合作」 蘋果和使用谷歌的Android軟體技術製造手機的公司,已經在全球提出許多類似的訴訟,以保護自己的技術。蘋果認為Android手機所使用谷歌軟體技術,複製於iPhone手機。 依據兩家公司提出的申請,已通知華盛頓聯邦上訴法院駁回訴訟案件,但這協議似乎看起來不適用於蘋果對三星電子公司所提出的訴訟,因未接獲駁回案件的通知。 蘋果和摩托羅拉移動的爭議開始於2010年,摩托羅拉指控蘋果侵犯多項專利,其中包括一個主要如何使手機於3G網路上運行,而蘋果表示,摩托羅拉侵犯其專利的智慧手機的某些功能。 這些案件被合併由芝加哥聯邦法院,然而,審理法官Richard Posner在2012年審判前夕即駁回案件,認為無任何一方可提供足夠的證據各自的主張。上個月,上訴法院讓iPhone製造商另一次機會,贏得一個對抗競爭對手的銷售禁令。 谷歌於2012年以125億美元收購摩托羅拉移動,今年將摩托羅拉移動出售給聯想,仍保留大多數的專利。
Tiffany訴訟追加主張eBay所侵害商標數量以擴大賠償金之請求美國紐約最大的珠寶公司Tiffany 於二○○四年向美國聯邦南紐約地方法院對全世界最大的拍賣網站eBay所提的商標侵權訴訟乙案,在該年度造成電子商務業界的一陣風暴。Tiffany 在起訴狀當中主張, eBay網站中所賣方所拍賣Tiffany的珠寶百分之七十三為仿冒品。雖然,Tiffany發函請求eBay移除刊登在eBay網站上,約一萬九千筆拍賣Tiffany仿冒品的網頁;但Tiffany仍提起訴訟主張eBay未對仿冒詐欺之情形盡監督之責,而造成該公司之營業損失,故須負起共同侵權責任。其它世界知名的精品公司,如 Louis Vuitton Moet Hennessy及Dior Couture也於二○○六年對eBay未盡監督之責而侵害其商標乙事在巴黎地方法院提起訴訟,並要求eBay賠償該兩大精品業者二○○一年至二○○五年之營業損失。 Tiffany的代表律師針對eBay所提起的答辯在六月一日提出補充意見狀表示,原起訴狀所主張的商標權範圍並未限定或引用特定的商標,因此eBay的主張無理由。 Tiffany v. eBay乙案,原定於今年 (二○○七年) 五月十四日在南紐約地方法院進行法官審判程序 (Bench Trail) ,但因五月八日承審法官下令進行訴訟和解程序而延期。今年四月中旬,Tiffany追加訴訟主張eBay侵害其所有的十一個包括Tiffany經典藍色的顏色、PALOMA PICASSO等商標。eBay對上開Tiffany的追加訴訟提出反對意見,主張Tiffany所追加主張eBay侵權的十一個商標未按正當程序提出,將會使得eBay因提出證據的時間不足而造成裁判偏頗之虞,故請求承審法官駁回Tiffany的追加訴訟。 按Tiffany追加eBay所侵害商標數目之目的,係為增加eBay的法定損害賠償義務;因為美國法律規定,商標侵權的法定損害賠償義務計算方式以所受侵害仿冒的商標商品或服務之種類為準,每一項美金一百萬元之賠償金。
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。