2016年11月8日印度新德里(New Delhi),在英國首相德蕾莎‧梅伊(Theresa May)及印度總理納倫德拉‧莫迪(Narendra Modi))見證下,由英國智慧財產局(UK Intellectual Property Office;簡稱UK IPO)及產業政策與推廣部(Department of Industrial Policy and Promotion)共同簽署智慧財產權備忘錄。
雖然學術上就智慧財產權之保障強度,對於促進創新領域是否具有正面效益,似乎仍然是意見分歧,反思者主要論點在於模仿或抄襲對於某些產業發展,如:時尚設計、金融產品或程式開發等,反而有益於保持源源不絕之創造力,甚且適度開放更有促進市場競爭與減少社會成本,如:避免專利蟑螂崛起或企業壟斷,其中著名案例就是Linux;然而,雖有前述反思浪潮,但目前國際間仍是普遍相信藉由協議或備忘錄形式,試圖架構完善且強健之智慧財產權保護體系,維護權利人之權益,將有助於提升企業或一般民眾投入創新領域之意願。此番論點可見諸於英國所指派至印度擔任高級專員之多米尼克‧阿斯奎斯(Dominic Asquith),即是認為英國與印度簽署智慧財產權備忘錄,對於兩國創新及創意領域之發展,具有高度重要性。
針對該備忘錄之重點,內容摘錄如下:
1、相互交流智慧財權領域管理優化方式,如:簡化專利、商標、工業設計之註冊處理流程。
2、技術交流,此包括主管機關支援及智慧財產權紛爭之司法替代方案。
3、宣傳活動,此含有智慧財產權評價與維護之業務諮詢。
4、針對公眾舉行教育活動,以提高其對智慧財產權之認識與尊重。
2016年11月澳洲國家交通委員會(簡稱NTC)公布「自駕車政策革新報告」(Regulatory reforms for automated road vehicles Policy Paper),當中釐清對自駕車各項可能遭遇的法規障礙並設定修正時程,2017年4月16號NTC並進一歩依前份文件規劃提出「控制自駕車相關規範建議」討論文件,釐清自駕車的控制定義與相對應規範,並提出法制規範修正內容。 2016年澳洲政府並通過了關於陸路交通科技的「政策原則」(Policy Principles),其中包括政府決策時應基於改善交通安全、效率、永續發展和成果的可能實現,並且應以消費為中心等原則,這些原則構成了澳洲政府的政策框架。 澳洲NTC此份討論文件中,提出應釐清能「控制(in control)」自駕車的對象,此將影響自駕車事故的負責人為誰。NTC提出目前仍應定義人類駕駛為控制自駕車的一方而非自駕系統,以避免人類駕駛做出不適當的操作行為。 NTC並釐清「恰當控制」的定義。「恰當控制」為澳洲道路法規第297條第1項:「駕駛者不得駕駛車輛除非其有做出恰當控制」中所規範。恰當控制被目前的執法機關詮釋為駕駛者應坐在駕駛座上並至少有一隻手置於方向盤上。但「恰當控制」將因自動駕駛系統的操作方式受到挑戰。因此NTC認為「恰當控制」不一定需要將手置於方向盤上,而是要有足夠的警覺性和能即時進行干涉,此定義並應隨著科技發展而修正。 本次政策文件意見徵詢至2017年6月2日,收到意見後NTC將會意見納入未來的全國性實施政策方針,提交給澳洲交通與基礎建設諮議會(Transport and Infrastructure Council)通過,預計於2017年年底前完成此自駕車方針。
法國資料保護機關要求Clearview AI刪除非法蒐集的個人資料法國國家資訊自由委員會(Commission nationale de l’informatique et des libertés, CNIL)自2020年5月起陸續收到民眾對臉部辨識軟體公司Clearview AI的投訴,並展開調查。嗣後,CNIL於2021年12月16公布調查結果,認為Clearview AI公司蒐集及使用生物特徵識別資料(biometric data)的行為,違反《一般資料保護規範》(General Data Protection Regulation,GDPR)的規定,分別為: 非法處理個人資料:個人資料的處理必須符合GDPR第6條所列舉之任一法律依據,始得合法。Clearview AI公司從社群網路蒐集大量全球公民的照片與影音資料,並用於臉部辨識軟體的開發,其過程皆未取得當事人之同意,故缺乏個人資料處理的合法性依據。 欠缺保障個資主體的權利:Clearview AI公司未考慮到GDPR第12條、第15條及第17條個資主體權利之行使,特別是資料查閱權,並且忽視當事人的個資刪除請求。 因此,CNIL要求Clearview AI公司必須於兩個月內改善上述違法狀態,包括:(1)在沒有法律依據的情況下,停止蒐集及使用法國人民的個資;(2)促進個資主體行使其權利,並落實個資刪除之請求。若Clearview AI公司未能於此期限內向CNIL提交法令遵循之證明,則CNIL可依據GDPR進行裁罰,可處以最高 2000萬歐元的罰鍰,或公司全球年收入的4%。
法國出版商起訴GOOGLE侵權法國3大出版商5月11日宣稱將起訴Google,因Google未獲出版社允許,掃瞄了成千的書籍上傳到其網路圖書館。法國3大出版社為Gallimard、Flammarion和Albin Michel,在巴黎法院要求98億歐元(美金114億元)的損害賠償。 出版商宣稱Google未經同意而用數位掃描將近1萬本書籍內容於網站上,使大眾可以在線上獲得。出版商的法律團隊代表表示每掃描一本出版社書籍就要付1000歐元損害賠償。 對此,Google回應,他們堅信書籍掃描計畫是合法的,並且說明,我們非常驚訝收到此種指控,我們確信Google Book計畫符合法國法律和國際著作權法。 Google對出版商表示:「Google肩負著繼續與出版商一同工作,並且幫助出版商發展數位服務和讓出版的著作得以讓法國與海外的網路使用者接觸。」 另一位法國的出版商La Martiniere,在2009年用同樣的爭議成功的起訴了Google,在美國法院也推翻了Google掃描美國出版書籍內容的經營模式。
美國白宮呼籲採取行動,打擊利用AI生成影像進行之性虐待行為美國白宮於2024年5月23日公開呼籲採取行動以打擊利用AI生成性影像,及未經當事人同意傳播真實影像的性虐待行為。此次呼籲源自白宮「解決線上騷擾與虐待問題工作小組」(Task Force to Address Online Harassment and Abuse)相關行動、總統第14110號行政命令-「安全、可靠且可信任之AI開發及利用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),以及尖端AI公司自願管理AI風險之承諾(Voluntary AI Commitments)。 白宮指出,迄今為止生成式AI已淪為性虐待的主要工具,同時,涉及未經同意散布或威脅散布私人性影像,亦將對受害者造成嚴重的心理傷害。白宮呼籲相關利害關係人透過自願性承諾,預防與減輕性虐待影像之影響,如: (1)阻止性虐待影像獲利: 對於從事性虐待影像業務的網站或應用程式,支付平臺與金融機構可限制或拒絕對其提供支付服務。 (2)停止創建深偽性虐待影像 : 對於可透過AI生成性影像之網路服務或應用程式,雲端服務供應商與應用程式商店得減少此類網路服務或應用程式運作。此外,應用程式商店可要求應用程式開發人員採取措施,防止使用者製作非經當事人同意的AI生成性影像。 (3)防止散播性虐待影像: 應用程式與作業系統開發人員可啟用技術保護措施,以保護數位裝置上儲存之內容,防止未經當事人同意分享其影像。 (4)支援並參與為受害者提供有效補救措施之服務: 平臺與利害關係人可選擇與相關組織合作,使性虐待影像受害者可輕鬆且安全地從線上平臺中刪除未經同意之內容。此外,白宮亦呼籲國會修訂於2022年重新授權之「婦女暴力防制法」(Violence Against Women Act Reauthorization),延續並加強原有法律保護效力,同時為AI生成之性虐待影像的受害者提供關鍵援助資源。