日本特許廳(Japan Patent Office,JPO)從去(2016)年12月開始,與NTT Data公司合作,使用人工智慧(Artificial Intelligence,簡稱AI)來系統化的回答有關專利問題,且依成果顯示,與原先運用人力回復的成果相當;JPO因此決定於今(2017)年夏天開始,將AI技術分階段應用於專利及商標的審查案,並期望能於下一會計年度(2018年4月至2019年3月),在審查業務中全面運用AI技術。
JPO指出,透過AI技術能有助於將專利及商標審查程序中繁冗的檢索程序簡化,以專利審查為例,可搜尋大量文件與檔案,進行專利先前技術檢索,以確保相關技術尚未獲得專利保護,同時也可以協助專利分類;此外,商標審查亦可利用AI之圖像辨識技術比對圖片及標誌,找出潛在的類似商標。
AI技術被證實能提升審查效率,並減輕審查人員檢索與比對部份的工作負擔,有助於抑制人工審查的長時間工作型態,根據2017年日本特許廳現況報告(特許庁ステータスレポート2017),於導入AI技術後,原本從申請到審查完成平均約2年左右之審查時間,期望可在2023年將審查期間降到14個月,讓日本成為智慧財產系統審查最快且品質最好的國家之一。
「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
英國新聞申訴委員會(The Press Complaints Commission,簡稱PCC)日前針對某報業網路上發布之影片寄出違反隱私權之處罰裁定,該影片為一位16歲之高中學生利用行動電話所拍攝,內容紀錄該學生就讀之班級學生於教室內脫序的上課狀況,該學生錄下脫序現象之目的在向自己父母解釋其數學成績不佳之原因,此一事件被英國報紙The Sun, The Daily Mirror and The Hamilton Advertiser報導出來並將該影片公布於網路。 該校「家長、老師會」(Parent Teacher Association)為此向英國新聞申訴委員會提出申訴,主張報社報導並於網路上公布該影片之行為,構成對於影片中學生之隱私權侵害,因為包括校方、學生以及學生家長皆未對影片播放表示同意。 PCC表示,學校的風紀問題已被認定與公共利益相關,而本案影片學校對於學生鬆散管理導致之脫序行為已經影響學生學習之表現,明顯屬於重要之公共利益事項。然而,該報社於報導此事件時,無論於報紙上之圖片以及網路上之影片皆未加以處理,尤其,網路上之影片有部分學生之身分可被明顯辨識,而新聞媒體具有確保學生隱私權不致於因出現鏡頭前而受到侵害之責,雖然依據該報社表示若將學生影像模糊處理將降低事件可能造成之影響,但學生隱私之保護將比新聞媒體呈現事件之利益更為重要,故裁定該報社違反新聞媒體工作規範中之隱私權保護規定。 PCC從今年(2007年)2月已開始對於報社所擁有之多媒體網路內容規範管理,而該規範並未排除大眾提出之資料,只要該資料為該報社可編輯掌控之範圍內,皆受到規範。
「美國FTC處罰mHealth App不實廣告」美國聯邦貿易委員會(Federal Trade Commission,以下簡稱FTC)在2016年2月針對一款宣稱能矯正視力之Ultimeyes App處罰。此款App由Carrot Neurotechnology公司研發,以美金9.99元於平台上販售供民眾下載。App宣稱具有提升及改善視力功能,透過App使用即可在日常生活中的各種活動中,感受視力恢復而不需使用眼鏡。然而,FTC起訴認為,App所稱之使用療效,缺乏充分的文獻資料佐證說明。其必須具備完整及可信賴的科學證據來證明,包含臨床試驗或盲測等方式,且該科學證明必須符合相同領域專家所認定之標準,否則,該款App內容所標榜之效果即屬不實陳述,將造成民眾誤認。為此,Carrot Neurotechnology公司最終以美金15萬達成和解,並且經FTC要求,若將App說明當中未經科學證明的療效部份予以刪除,即可繼續再繼續販售此款App。此案並非美國FTC首度針對mHealth App處罰之案例,然而,可能造成mHealth App發展業者對FTC與FDA角色之間之混淆,後續兩者主管機關之間之角色如何調和將是未來關注之重點。反觀我國,目前雖無相關案例發生,然在鼓勵發展之際,亦應考量是否有違反消費者保護之情形。
歐洲法院裁決比特幣兌換免徵增值稅歐洲法院(Court of Justice of the European Union)日前(2015年10月22日)裁決,根據歐盟增值稅指令(Council Directive 2006/112/EC of 28 November 2006 on the common system of value added tax (OJ 11.12.2006 L 347, p. 1-118, ‘the VAT Directive’)),虛擬通貨比特幣(bitcoin)與其他傳統通貨的兌換交易免徵增值稅。 本案肇因於歐盟會員國瑞典之國民David Hedqvist欲申請線上比特幣交易平臺營利,預先向瑞典稅法委員會(Swedish Revenue Law Commission)申請先裁決定(preliminary decision),以確認比特幣與其他傳統通貨,諸如瑞典克朗,之間的兌換交易免徵增值稅。委員會表示,比特幣作為一種支付方式,其使用與合法的支付方式相似,因此比特幣與傳統通貨之間的兌換免徵增值稅。然而瑞典稅務機關(Skatteverket; the Swedish Tax Authority)對該決定不符因而上訴至瑞典最高行政法院(Högsta förvaltningsdomstolen; Supreme Administrative Court, Sweden)。法院認為本案涉及歐盟增值稅指令之解釋,因此以之為先決問題暫停訴訟而提交至歐洲法院,請求先行裁決(the reference for a preliminary ruling)。先行裁決是歐盟法院進行的程序之一,由各會員國法院請求其對歐盟法內容或效力作出解釋並拘束所有會員國,藉此保證歐盟法的法確定性及適用上的一致性。 瑞典最高行政法院認為,固然可以從歐洲法院先前判決推導出:從傳統通貨與虛擬通貨的兌換交易中,取得買賣虛擬通貨之差額作為對價,構成「提供服務以獲取對價」。有疑者,該等交易是否被歐盟增值稅指令第135條第1項各款規定所涵蓋,而屬於得免除增值稅之金融服務提供。其提交歐盟法院請求解釋之問題有二:第一,系爭交易是否屬於歐盟增值稅指令第2條第1項所定之「提供服務以獲取對價」之交易;第二,如是,該等交易是否屬於同法第135條第1項所規定得免除增值稅之交易? 歐洲法院認為,比特幣具有雙向通貨流的性質,而其除了作為支付工具之外別無意義。該虛擬通貨與傳統通貨的兌換,性質上屬於不同支付方式的交換;此外,比特幣販售者所獲得報酬等同於其買賣比特幣的價差,與交易有直接連結,屬於歐盟增值稅指令第2條第1項c款「提供服務以獲取對價」之交易。 關於第二個爭點,歐洲法院認為,歐盟增值稅指令第135條第1項e款之目的即在於避免金融交易中,決定應稅額及增值稅抵扣額的困難。更重要者,傳統通貨與虛擬通貨比特幣之相互兌換,在交易雙方都可接受比特幣作為支付方式之情況下,僅是不同支付方式之交換而屬於金融交易。若將系爭交易排除於該款適用範圍之外,將會剝奪規範目的的部份效果,因此應認定其免徵增值稅。 至於此裁決是否代表歐盟全面肯認,諸如比特幣等具有雙向通貨流性質之虛擬通貨,其作為通貨的性質?裁決中提到,就歐盟指令而言,虛擬通貨與電子錢不同,且前者並非以諸如歐元之傳統記帳單位(traditional accounting units)表示,僅是虛擬記帳單位。因此,比特幣乃至虛擬通貨於歐盟法上之定位,仍有待觀察。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。