針對告知消費者個資使用方式以及確保消費者對個資利用之參與及意見表達,英國通訊傳播管理局(The Office of Communications, Ofcom)於2015年6月17日公布委託德國顧問公司WIK-Consult進行之「個資與隱私」(Personal Data and Privacy)報告。報告指出,雖然法規要求在處理個資前必須獲取相關消費者的告知同意,但事實是消費者並未在線上實際閱讀隱私權政策條款,這個問題則由於智慧聯網大幅促進了裝置間的互聯性與資料的流通而更形嚴重。報告表示,雖然資料流通的本質不變,但僅因互聯裝置數量倍增就足以讓可近用與分析的資料呈等比級數成長,要在線上對這些遍及生活各層面的資料進行追蹤也就難上加難。
對於這個起因於智慧聯網興起的問題,報告認為政府可能必須利用更複雜的契約關係加以規範。因為隱私權政策要能透明,必須指出究竟是哪些人會在何時以哪種方式為了何等目的去近用相關資料,但這勢必會讓隱私權政策條款更加冗長,這不但與隱私權政策盡可能應簡潔易懂相違,消費者也更不可能實際去閱讀。此外報告也指出,機台或裝置在智慧聯網下能夠在幾乎沒有人為介入的情況下進行溝通,此將大幅壓縮消費者能夠得知個資蒐集與使用方式的機會,智慧聯網也讓消費者可能根本沒有察覺其正在使用的裝置實際上已經與網路連線。另一方面,隨著互聯複雜性的大幅提高,有意或無意揭露個資也將帶來更多的潛在不利影響。
本文為「經濟部產業技術司科技專案成果」
北京法院於2016年3月17日開始審理關於「夢想強音文化傳播有限公司」和「北京正議天下文化傳媒公司」未經授權使用荷蘭Talpa公司商標一案。 Talpa公司主要業務為開發、製作電視節目模式,〈The Voice of〉是該公司開發的一款歌唱比賽真人秀電視節目模式,為該公司知名產品。Talpa已向中國、澳州、美國、歐盟等在內約70個國家,註冊了「The Voice of 」商標,商標圖示為一隻手拿麥克風之圖像。 《中國好聲音》製作單位於2012年向荷蘭Talpa 買下節目模式與商標圖示,用以製作音樂真人秀《中國好聲音》;今年Talpa並未與其續約,故《中國好聲音》製作單位未取得Talpa公司商標專用權。 惟負責《中國好聲音》第五季海選活動之夢想強音文化傳播公司和北京正議天下文化傳媒公司,在好聲音全國海選活動與宣傳中,大量使用與Talpa註冊商標幾乎相同的圖形及文字;Talpa公司認為,此為類似商品上使用與註冊商標相同或近似商標行為,已造成消費者混淆,依中國大陸人民共和國商標法第57條,構成侵害商標專用權。據此,Talpa公司要求上開兩間公司立即停止商標侵權行為,並要求登報道歉與連帶賠償律師費、公證費、翻譯費及各項損失300萬元。 本文同步刊登於TIPS網站(http://www.tips.org.tw)
美國俄亥俄州推出「個人隱私法草案」2021年7月13日,美國俄亥俄州(下稱俄州)副州長Jon Husted宣布推出《俄州個人隱私法》(Ohio Personal Privacy Act, OPPA,下稱本法),這是美國近期最新州級別的個人隱私保護法草案,並提出企業可資遵循隱私標準俾該州消費者隱私之保護。 首先,本法草案除賦予該州消費者知悉權、近用權、刪除權外,更賦予資料銷售退出權(right to opt out sales)及不受歧視權(right to discrimination)。並於俄州境內規範三種企業:(一)年營收逾2,500萬美元;(二)單一年度內經手10萬名以上消費者個資;(三)年營收半數源自於個人資料銷售且經手2.5萬名以上消費者個資。 惟所稱企業,排除如:州立機關或機構、受管制之金融機構及其附屬單位、實體或關係組織、高等教育機構等;至所稱消費者個資,則排除如:法規保護之個資(如健康資訊及紀錄、病患辨識資訊、人類受試者之個資及相關資訊、病患安全工作成果、個人信用等)、依法(如駕照法、家事法、醫療法及本法等)所得個資或依法授權得使用於公衛之資訊等。 特別的是,如企業違反本法,消費者並無獨立訴訟權,其執法權專屬州總檢察長。因此,如本法日後通過並施行,無論對俄州企業抑或消費者權益之影響,均有待觀察。
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
資訊社會法制架構初探-以2003年聯合國資訊社會高峰會之決議為借鏡