印度電子資訊產業技術部(MeitY)2022年11月在網站上公布了個人資料資訊保護法草案(Digital Personal Data Protection Bill,以下簡稱該法案),並於2023年7月提交議會審查。目前印度民法不承認未成年人(未滿18歲者)具有自主簽訂契約的能力。因此,取得的兒童同意不具有法律效力,必須徵得父母或是監護人的同意才能合法蒐集兒童個人資料。
根據印度2022年個人資料資訊保護法案草案,任何未滿18歲的人都被歸類為「兒童」。該法案中同時限制專門向兒童發送的廣告,並且監管任何追蹤兒童行為的情況。目前國際隱私法(例如:歐盟通用資料保護條例 (GDPR)、加州消費者隱私法(CCPA)等)的兒童定義多在13至17歲之間。但考慮到兒童個人資訊的敏感性和潛在危害,印度政府採取了較保守嚴謹的路線。政府也已被授權制定有關處理兒童個人資訊的細則,特别是確保資料使用人不可使用可能對兒童造成傷害的個人資料。
根據社會發展狀況,兒童若每次在網路平台上進行活動時都需經過父母或是監護人同意不甚妥適,且根據前述說明,兒童界定年齡為18歲以下,若依照統一年齡範圍進行控管,實際執行上面臨窒礙難行之處。故修法者在對於該法案修改意見中,引用了其他國家隱私法中的不同年齡分類限制,以求降低年齡門檻限制,或是根據用戶的年齡制定差異化的授權要求。
另一個產生的爭議為,該如何驗證父母或是監護人的同意表示。法條中目前無明確規範何為「有效之同意表示」,現行各平台使用不同的方法獲得父母或是監護人的同意,目前有兩種方式,包括點選「同意」按鈕,或是在用戶條款中表示若使用服務等同於監護人同意。
關於兒童年齡之界定,是否將參考其他國家規範進行差異化設定,目前暫無明確定論(包括如何調整、年齡級距設定),根據資訊使用的普及,兒童年齡的界定可以預期的將會進行調整;關於如何有效驗證父母或是監護人的同意表示,目前在技術上大多服務商都偏好透過會員註冊時的同意按鈕或是用戶條款中列明若使用服務即代表同意這兩種方式認定,在這兩種方式之後,系統是否有設定驗證機制,以及需要何種驗證方式才可以認定父母或是監護人的同意表示是符合法律效力的,都需後續再進行研擬。
美國著作權局(US Copyright Office,USCO)於2023年3月16日頒布「具AI產出之著作註冊指引」(Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence),本指引之發布係由於近年美國著作權局時常收到人工智慧著作之註冊申請案,對於此類著作是否可以成功註冊,過去未有較明確之判斷準則,如此恐造成美國著作權體制之紊亂,著作權局遂發布本指引,以作為民眾申請註冊之著作包含利用AI創作內容時之指導依據。 本指引首先認定「著作人」之概念須為人類,此部分與美國憲法、美國著作權法及美國最高法院判例見解相同。 接著,本指引並描述到欲申請之著作,除前開之著作人須為人類外,人類須於該著作中傳達其原始精神理念(own original mental conception),不得為單純之透過機械運作所產生。惟此並非代表人類完全不得運用AI輔助創作,係取決於人類對該創作之創造性控制程度及該創作實際形成(Actually Formed)作者之傳統元素含量。 最後,本指引提出申請人於提出具AI產出著作時應提交之表格為標準表格(Standard Application),在創作者欄位中具體闡述人類作為作者之具體貢獻身份,且不能將AI列為作者或共同作者。至於在本指引發布前已提出之申請案,該指引提到申請人可以透過補充說明之方式,通知著作權局其著作中涉及AI產出部分,並就該部分聲明不專用,以符合新指引所要求之「揭露」。 綜觀以言,可以認定本指引之提出可作為著作人申請註冊時之遵循依據,初步解決過去未有AI著作申請註冊參考依據之弊病,然尚有許多細節待補充,且甚仰賴個案之判斷,惟本文認為未來隨AI科技之發展及廣泛利用,關「人類智慧」於著作貢獻程度更明確、更為具體之判斷標準勢必將應運而生,值得持續關注。
歐盟個人資料保護委員會提出關於資料主體接近使用其個人資料權利之指引歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)第15條為「資料主體之接近使用權(Right of access)」,其第1項規定「資料主體有權向控管者確認其個人資料是否正被處理」,資料主體並得知悉其個資處理之目的、所涉及之類型等事項。該條係為使資料主體在獲得充分、透明且容易接近之資訊,使其得更輕易的行使如資料刪除或更正等權利。 因條文在文字上具抽象性,就具體內涵仍須有一定基準,故歐盟個人資料保護委員會(European Data Protection Board, EDPB)於2022年1月18日,針對GDPR中之接近使用權提出指引(Guidelines 01/2022 on data subject rights - Right of access),闡明在不同的情況中,資料主體應如何向資料控管者(Data Controller)主張接近使用權,並且說明資料控管者針對此項權利之義務內涵。 就具體內容,該指引包含:接近使用權之範圍、資料控管者應向資料主體提供之資訊內容、資料主體請求資訊之格式、資料控管者應如何提供資訊、GDPR第12條第5項所稱「資料主體之請求明顯無理由或過度者」之概念為何。指引並製作流程圖,以便利資料主體輕易的了解向資料控管者主張權利之步驟。 而對於資料控管者,指引亦說明其應如何解釋與評估資料主體之請求、應如何回覆特定請求、限制接近使用權之例子。該指引旨在從各方面分析接近使用權,經由舉例與設想特殊情形,以求為該權利提供更精確之指導。
歐巴馬旋風之商標影響力美國總統歐巴馬在選舉前後已對於產品市場,造成一股莫大的熱潮,商人們都想藉由這股熱潮來獲得利益。可以從口號「Yes We Can」、「Change」的利用及一系列歐巴馬肖像相關產品充斥於產品貨架上得以瞭解。然而,這樣的現象,美國白宮律師正著手處理保護總統的發言權及肖像權,且在不損民眾熱情之下制定規範以進行管理。 在美國總統大選期間,已有數家美國企業向美國專利商標局 (United States Patent and Trademark Office, USPTO)提出新商標申請。1月份即有73件混合歐巴馬名字為商標之申請案,其中包括填充玩具「Bearak Obama」、「ObamaLlama」、棒棒糖「Obama」、「Obama vodka」、啤酒「Obamanator」、服飾「Obamanation」、鞋子「Obamaniac」以及「Broccoli Obama」於冷凍蔬菜,冰淇淋公司Ben Jerry’s ice提出「Yes Pecan」,甚至有出版業者提出「Obamaland」之商標申請。在歐洲也是如此,Benelux Office for Intellectual Property (BOIP) 也有二件申請案,「Obama」雜誌、音樂及「Obama」花卉種籽。目前已經有些商標申請案被USPTO駁回,如「Obama vs Osama」。 Rise & Ries之董事長Al Ries表示:「現在這股歐巴馬風潮是可以理解的,但並不會持續到永遠」。然而,美國白宮律師依舊可能會針對各個情況作判斷以最好的方式保護總統的權利,並且尊重人民使用的權力,必竟歐巴馬是大多數人的驕傲。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。