為了實現在2018年將無人飛行載具(drone)運用於離島或山區的貨物配送之目標,日本國土交通省及產業經濟省自2017年9月起舉行了6次「關於無人飛行載具的目視外與越過第三人上空之飛行檢討會」,並於2018年3月29日發表了其所統整出無人載具進行無輔助者目視外飛行之相關要件。
依據現行航空法第132條之2、國土交通省頒布的「無人航空機飛行手冊」第3點、以及該發表的內容所示,無人載具的目視外飛行除須就機體、操縱技術與安全對策的面向具備相關要件,尚要求在操縱者之外,應配置輔助者,在飛行時監視飛行與氣象狀況,同時管制飛行路線正下方及其周邊的第三人出入,並綜整判斷上述資訊,適時給予操縱者安全飛行所必要的建議。
基此,該發表指出,考量到以現行的技術而言,地上設備與機上裝置仍難以完全取代輔助者所扮演的角色,故就無輔助者的情形,除在現行飛行基準上,附加:1. 飛行路線須選在第三人存在可能性低、且有人機不會飛行的場所與高度;2. 機體須具備預想中用途的相當飛航實績;3. 事前履勘飛行路線與擬定意外發生時的對策等條件外,又增設新的個別要件如下:
(1)就第三人的出入管理,設置能遠距離監視的攝影機,並在管制區域設置看板或海報等,以警示附近居民;
(2)對機體施以增加辨識度的塗裝,裝設可供遠距離監視有無有人機接近的攝影機、或將飛行計畫事前提供給有人機營運者;
(3)隨時掌握自機狀況,擬定在異常情形發生時降落的適切對策;
(4)在飛行路線或機體裝設氣象計以監測氣象狀態,令其得以在判明天候狀況超出機體所能負荷限度的當下即時降落。
預期該發表內容將會成為日本「面向空中產業革命之行程表」中,關於目視外飛行審查要點修訂項目的重要參考基準。
本文為「經濟部產業技術司科技專案成果」
美國第七巡迴上訴法院( U.S. Court of Appeals (7thCir) )最近就 Wallace v. IBM, Red Hat, and Novell 一案做出判決,本案爭執重點在於 GPL 授權條款與反托拉斯法之間的關係,美國第七巡迴上訴法院認為 GPL 授權條款並不違反反拖拉斯法,法院也同時明確表示,一般而言自由軟體無須擔心會違反反托拉斯法。 本案上訴人 Daniel Wallace 係程式設計師,其欲販售由 BSD ( Berkeley Software Distribution )所開發出來的競爭軟體給各級學校。 BSD 是 Linux 的衍生版本,而 Linux 作業系統則是屬於自由軟體的一種,想要使用 Linux 的人就必須遵守 GPL 授權條款。依 GPL 授權條款規定,不論 Linux 或 Linux 之衍生著作均不得收取授權費用,上訴人因此指控 IBM 、 Red Hat 、 Novell 與自由軟體協會涉嫌共謀將軟體價格設定在零,涉嫌以掠奪性定價( predatory pricing claim )方式削減作業系統市場之競爭,已違反反托拉斯法。 法院認為,本案並無法主張掠奪性定價,蓋被上訴人 IBM 、 Red Hat 及 Novell 並無法因此而取得獨佔價格,其授權價格之所以為零乃是遵照 GPL 授權條款的結果,且消費者並未因此受到損害。其次,法院也指出,著作權法通常對他人之改作權加以限制,其目的是為了收取授權金,不過著作權法人亦可用以確保自由軟體維持零授權金,因此任何嘗試想要販售自由軟體之衍生著作者,將會違反著作權法,即令改作人不同意接受 GPL 授權條款的約束。
金融科技(Fintech)專利戰局:那斯達克申請備份交易紀錄之區塊鍊專利近年來,大型銀行及信用卡公司爭相為其核心技術及在創新上的投資尋求專利保護。從2013年截至今日,數個大型金融機構在美國已至少申請近2700項專利,這些專利涵蓋目前最火紅的領域,包含:區塊鍊、分析以及資訊安全等。金融領域的專利申請量相較前三年已達到約百分之八十三的驚人成長。 全球最大的證券交易所之一那斯達克(NASDAQ)近年來亦投入區塊鍊技術的研發及應用。去年(2015)起,那斯達克便以區塊鍊技術搭建了私募股權的智能平台Linq,今年(2016)更提出了利用區塊鍊技術備份交易紀錄以保證交易安全的專利申請。 今年十月六日,美國專利商標局(United States Patent and Trademark Office,簡稱USPTO)公布一項新的專利申請「區塊鏈交易紀錄之系統與方法」(Systems and methods of blockchain transaction recordation)。這個專利在今年三月三十一日提出,發明人為那斯達克的企業結構資深副總裁Tom Fay,及企業結構協理副總裁Dominick Paniscotti。 具體而言,這個專利是由:一個電子錢包、一個委託簿(order book),以及配對引擎所組成。該配對引擎包含一項用來紀錄、且能夠及時更新交易紀錄的「封閉區塊鍊」。 該專利申請詳細介紹了這項技術:在這個系統中,當數據交易請求間之配對被辨認出來後,系統就會生成電子錢包及相應數據交易請求的hash值。當交易的一方收到另一方的hash值與相應資訊,各交易方的交易就會被增加至區塊鍊計算系統的區塊鍊上。在這個系統下,交易所查核區塊鍊的內容,尋找與這些電子錢包相關的數據。此外,這些數據資料會被額外備份於獨立的資料庫。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)
Google就隱私權議題與美國FTC達成初步和解,消費者團體呼籲FTC採取更嚴厲的手段今年三月底,Google與美國聯邦貿易委員會(Federal Trade Commission, FTC)就Buzz案達成和解。2010年時FTC控告Google Buzz未確實保護消費者的個人資料,侵犯了消費者的隱私權,違反「聯邦貿易委員會法」(FTC Act)以及美國與歐盟所訂定之「安全港架構協議」(U.S.-EU Safe Harbor Framework)。FTC表示,Google搭配在其Gmail中的網路社交服務Buzz,讓Gmail使用者誤以為其可以自主決定是否加入該社群,但事實上縱使Gmail使用者選擇不加入,也無法完全移除此項服務。甚者,選擇加入Buzz的消費者,亦無法找到明確的方式,控制其分享的個人資料。FTC控告Google未取得消費者的同意,將Gmail的資料(通訊錄名單)供社交網路使用,構成目的範圍外的使用。 依據Google與FTC和解內容,Google必須執行一套更為嚴謹的隱私權制度,不得再有誤導消費者其個人資料開放程度的行為,並且在爾後二十年都需接受獨立機構的隱私審查。初步和解內容開放30天(至2011年5月2日 )供社會大眾提供意見,之後FTC將提出最終和解內容。迄今為止,消費者團體提出的意見,包括要求FTC限制Google持有個人資料的時間,將隱私權保護制度適用到其所有的產品,對其儲存於雲端系統的個人資料進行加密動作,以及在進行個人資料蒐集前,應彈跳出視窗取得消費者同意等 值得注意的是,FTC在和解案中關於隱私權政策的客體所使用的語彙為「涵蓋資料」(covered information )而非「個人資料」(personal information),「涵蓋資料」所包含的範圍除了傳統的「個人資料」,尚包含IP位址、個人實體位址,以及通訊名單等等。 本案是FTC首度依職權要求業者採取更為嚴謹的隱私權保護制度以保障消費者權益,亦是FTC初次依「安全港架構協議」所採取的行動。本案對於線上服務的隱私權保護無疑是一大進展,但亦有論者擔心嚴苛的隱私權保護制度,反將造成小公司或新業者市場參進的障礙,愈發壯大Google的市場地位。 除此之外,Google的Buzz服務亦被消費者以集團訴訟提起告訴,最終和解金為850萬美元。 隨著Google成為搜尋引擎界的龍頭,其近年的一舉一動皆備受美國以及歐洲管理當局嚴密注意,今年二月份時,Google即時街景服務亦因不當蒐集個人資料而被法國裁罰14萬美元。
因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)