歐盟智慧財產局(EUIPO)為打擊仿冒,保護歐盟消費者及智慧財產權人,於2023年5月31日宣布正式啟動產品的區塊鏈物流認證計畫(European Blockchain Services Infrastructure - European Logistics Services Authentication, 簡稱EBSI-ELSA)。 根據EUIPO與經濟合作暨發展組織(OECD)於2021年發布的研究指出,全球仿冒產品的貿易額高達4120億歐元,占全球貿易總額的2.5%;每年輸入歐盟的產品約有6%是仿冒產品,嚴重影響歐盟的經濟發展、消費者的健康及安全、智慧財產權人(歐盟品牌企業)的權益。
從2019年至今,EUIPO一直努力研擬透過區塊鏈技術保護智慧財產的具體方案。2022年底,EUIPO與4個不同產業的品牌企業(包含汽車業、電子業、醫藥業、服飾業)、物流業者、荷蘭海關進行一個合作的試驗計畫,內容為透過區塊鏈技術追蹤產品於海外製造後,運送至歐盟銷售的歷程軌跡,以達到認證產品為智慧財產權人生產的目標。該試驗計畫於2023年5月完成概念驗證(proof of concept)。
本計畫結合區塊鏈服務基礎設施(European Blockchain Services Infrastructure, EBSI)及數位分身(digital twins)的概念,於生產、運送、海關查驗、配送至消費者的各階段中,在產品上嵌入一個含有序列化代碼(serialization code)的標籤,該代碼必須經產品所屬智慧財產權人的可驗證憑證(Verifiable Credentials, VCs)認證,結合歐盟智慧財產權相關資料庫的資料,以確認產品與其數位分身的連結。
EUIPO將於2023年底前,正式建置一個開源的區塊鏈認證平台,介接執法機構的風險分析系統,以及商標資料庫(TM View)、設計資料庫(Design View)、歐盟執法入口網(IP Enforcement Portal, IPEP)、歐盟區塊鏈智慧財產註冊系統(IP Register in Blockchain),鼓勵供應鏈、物流鏈中的參與者於此平台上交換資料,以更有效率的方式達到認證產品來源真實性的目標。
EUIPO積極運用區塊鏈科技強化歐盟智慧財產的保護,本計畫除可避免消費者買到仿冒產品外,歐盟的品牌企業未來可於相關智財侵權訴訟中,提出區塊鏈紀錄作為證據,有效主張權益。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
2018年7月27日印度電子及資訊科技部(Ministry of Electronics and Information Technology, MeitY)公告個人資料保護法草案(Protection of Personal Data Bill),若施行將成為印度首部個人資料保護專法。 其立法背景主要可追溯2017年8月24日印度最高法院之判決,由於印度政府立法規範名為Aadhaar之全國性身分辨識系統,能夠依法強制蒐集國民之指紋及虹膜等生物辨識,國民在進行退稅、社會補助、使用福利措施等行為時都必須提供其個人生物辨識資料,因此遭到人權團體控訴侵害隱私權。最高法院最後以隱私權為印度憲法第21條「個人享有決定生活與自由權利」之保護內涵,進而認為國民有資料自主權,能決定個人資料應如何被蒐集、處理與利用而不被他人任意侵害,因此認定Aadhaar專法與相關法律違憲,政府應有義務提出個人資料專法以保護國民之個人資料。此判決結果迫使印度政府成立由前最高法院BN Srikrishna法官所領導之專家委員會,研擬個人資料保護法草案。 草案全文共112條,分為15章節。主要重點架構說明如下: 設立個資保護專責機構(Data Protection Authority of India, DPAI):規範於草案第49至68條,隸屬於中央政府並由16名委員所組成之委員會性質,具有獨立調查權以及行政檢查權力。 對於敏感個人資料(Sensitive personal data)[1]之特別保護:草案在第4章與第5章兩章節,規範個人與兒童之敏感個人資料保護。其中草案第18條規定蒐集、處理與利用敏感個人資料前,必須獲得資料主體者(Data principal)之明確同意(Explicit consent)。而明確同意是指,取得資料主體者同意前,應具體且明確告知使用其敏感個人資料之目的、範圍、操作與處理方式,以及可能對資料主體者產生之影響。 明確資料主體者之權利:規範於草案第24至28條,原則上資料主體者擁有確認與近用權(Right to confirmation and access)、更正權(Right to correction)、資料可攜權(Right to data portability)及被遺忘權(Right to be forgotten)等權利。 導入隱私保護設計(Privacy by design)概念:規範於草案第29條,資料保有者(Data fiduciary)應採取措施,確保處理個人資料所用之技術符合商業認可或認證標準,從蒐集到刪除資料過程皆應透明並保護隱私,同時所有組織管理、業務執行與設備技術等設計皆是可預測,以避免對資料主體者造成損害等。 指派(Appoint)資料保護專員(Data protection officer):散見於草案第36條等,處理個人資料為主之機構、組織皆須指派資料保護專員,負責進行資料保護影響評估(Data Protection Impact Assessment, DPIA),洩漏通知以及監控資料處理等作業。 資料保存之限制(Data storage limitation):規範於草案第10條與第40條等,資料保有者只能在合理期間內保存個人資料,同時應確保個人資料只能保存於本國內,即資料在地化限制。 違反草案規定處高額罰金與刑罰:規範於草案第69條以下,資料保有者若違反相關規定,依情節會處以5億至15億盧比(INR)或是上一年度全球營業總額2%-4%罰金以及依據相關刑事法處罰。 [1]對於敏感個人資料之定義,草案第3-35條規定,包含財務資料、密碼、身分證號碼、性生活、性取向、生物辨識資料、遺傳資料、跨性別身分(transgender status)、雙性人身分(intersex status)、種族、宗教或政治信仰,以及與資料主體者現在、過去或未來相連結之身體或精神健康狀態的健康資料(health data)。
歐盟個資保護委員會大致認定南韓個資保護法具適足性認定,但須進一步評估歐盟個資保護委員會(EDPB)今(2021)年9月27日,就與南韓個人資料保護法(Personal Information Protection Act, PIPA)之適足性認定草案發表意見,認為南韓的個資保護框架與歐盟大致相同。但EDPB 同時也指出,在歐盟執委會做出決定之前,某些部分仍需要釐清。釐清的部分包含: 今年6月歐盟執委會公布並通過的適足性認定草案中,該草案之可執行性與有效性不應僅拘束南韓個資保護機構,也應對司法機構具有效力。除此之外,EDPB 也針對南韓PIPA 免除多項匿名化資訊之義務提出質疑;又南韓相關法令對「同意」之撤銷(或撤回)事由有所限定,應確保其對資料主體「同意」之保障持續符合適足性認定的要求。 至於在資料進一步移轉(onward transfers)方面,EDPB 認為即便資料主體知悉並同意其個資傳輸,仍應告知其資料是否會移轉到第三國之相關風險;以及若個資主體的同意無法符合GDPR 對有效同意之定義時(例如雙方地位不對等時,該同意即非有效),該個資不會從南韓之資料控管者傳輸至第三國;在對此議題南韓未具體修訂相關法令時,與國安相關的個資若進一步移轉,是否會受到憲法框架(如比例原則)和PIPA 中個資保護原則的充分保障? 而在行政部門存取傳輸到南韓的個資方面,許多議題也需要釐清並引起關注。如與國安方面相關的個資處理,係受PIPA 抑或其他更為限縮的法令限制?又電信業者自願向國安部門揭露使用者個資時,必須同時通知相關的個資主體;EDPB 並希望歐盟執委會釐清,若歐洲經濟區(EEA)內的個人向南韓個資保護機構或司法機構提出救濟時,相關的救濟程序是否實質有效(例如舉證責任的規定為何)? 於新聞稿中,EDPB 主席 Andrea Jelinek 表示:「歐盟對此適足性認定相當重視,因其將涵蓋公部門與私部門資料的傳輸。而適足的個資保護對支持歐盟與南韓的長期關係與個人權利、自由方面至關重要。雖然EDPB 認為南韓的個資保護框架與歐盟大致相同,然仍建議歐盟執委會密切關注適足性認定的各方發展。」
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
FAA公告禁止無人機於美國主要旅遊景點內飛行根據美國國家安全執法機構(US national security and law enforcement agencies)之要求,美國聯邦航空總署(Federal Aviation Administration,以下簡稱FAA)於2017年9月28日,依照聯邦法規(Code of Federal Regulations)第99.7條規定,發布無人機飛行規則,禁止任何人於多個旅遊地點邊界範圍400英尺內飛行無人機。美國聯邦調查局(FBI)局長Christopher Wray表示,「擔心恐怖分子會使用無人機進行攻擊。」 從FAA的公告中,禁止無人機飛行之限航區係由FAA和內政部(Department of the Interior,以下簡稱DOI)共同指定,包括:紐約自由女神像(Statue of Liberty National Monument)、波士頓國家歷史公園(Boston National Historical Park)、費城獨立國家歷史公園(Independence National Historical Park)、加州福爾索姆水壩(Folsom Dam)、亞利桑那州格倫峽谷大壩(Glen Canyon Dam)、華盛頓州大古力大壩(Grand Coulee Dam)、內華達州胡佛水壩(Hoover Dam)、密蘇里州傑弗遜國家擴張紀念公園(Jefferson National Expansion Memorial)、南達科他州拉什莫爾山國家紀念公園(Mount Rushmore National Memorial)、加州沙斯塔壩(Shasta Dam)。以上具體位置皆屬DOI管轄地區,也是FAA第一次將無人機之空域限制規定於DOI地標上,目前FAA仍對軍事基地進行類似空域限制。 限制無人機飛行之規則將於2017年10月5日生效,違反空域限制者,將採取法律行動,包含民事處罰和刑事追訴。只有少數例外情形,允許無人機在限制區內飛行,且必須和個別場所或FAA進行協調。FAA表示,正依聯邦法規第99.7條配合考慮其他聯邦機構對於無人機之其他限制要求。