印度廣告標準委員會公布「虛擬數位資產和連結服務廣告指引」

  印度廣告標準委員會(Advertising Standards Council of India, ASCI)於2022年2月23日發布「虛擬數位資產及連結服務廣告指引」(Guidelines for Advertising of Virtual Digital Assets and Linked Services),旨在防止使用加密資產和相關服務用戶所面臨的風險。

  本指引使用「虛擬數位資產」(Virtual Digital Assets, VDA)此專有名詞,而非「加密資產」,並將虛擬數位資產定義為透過加密或其他方法所產生的任何訊息、編碼或代幣,得以充當計價或記帳單位的憑證或儲存,包括加密貨幣和其他相關產品,例如非同質化代幣(NFTs)均屬之。

  該指引目的在將虛擬數位資產廣告與印度廣告標準委員會所發布的準則保持一致,該準則要求廣告必須真實,不得因「模糊、誇大或遺漏」而誤導消費者,並且不得利用消費者之信任或欠缺了解。

  最重要的是,廣告商必須在所有虛擬數位資產的廣告中,於明顯位置附上免責聲明,且免責聲明必須至少佔總印刷或靜態廣告空間的20%,而動態廣告至少要有5秒,並且必須出現在聲音和社群媒體廣告中。免責聲明中應載明:「加密資產和非同質化代幣並不受監管,風險高。此類交易造成的任何損失可能因為沒有監理,而難以取得賠償。」

相關連結
相關附件
※ 印度廣告標準委員會公布「虛擬數位資產和連結服務廣告指引」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8835&no=64&tp=1 (最後瀏覽日:2026/03/23)
引註此篇文章
你可能還會想看
泰國計畫拍賣下世代行動通訊頻譜

  根據外電報導,泰國政府目前正在規劃,將越過3G標準,直接以拍賣方式釋出3張執照給更先進、俗稱3.9G的行動通訊技術,可能的時間點為今年9月。   泰國國家電信委員會(National Telecommunications Commission)委員 Pana Thongmeearkom於2010年5月27日表示,相較於3G技術,3.9G的技術可以提供消費者更好的資料傳輸服務;規劃釋出的執照將以15MHz為單位,期限為15年,規劃釋出的頻段主要為2.3GHz,但2.5GHz亦為另一個可能釋出的頻段。   2.3GHz目前由國營的電信業者TOT&CAT與軍方使用中,2.5GHz則由廣播電視業者使用;泰國政府預計於年底提出清空頻譜方案。   各界評估新的頻譜將允許業者佈建以LTE為基礎的電信設備。泰國三家主要行動電信業者Advanced Info Service(AIS)、Total Access Communication(DTAC)與True Move早已表態將參與競標。   泰國政府之前曾多次宣布將展開3G執照競標計畫,惟時程不斷被推遲,外界歸咎於欠缺一個整合性的獨立頻譜監理機構。對此,Pana被迫給予保證,目前泰國的政治紛亂不會影響國家電信委員會的時間表,但如果設立一個可同時監管廣電與電信頻譜的獨立機關的草案未能通過國會立法程序,釋照程序確實有可能被中斷。   LTE行動通訊技術爭取應用的頻段,在歐洲主要為2.1GHz、2.5GHz、900MHz、與800MHz,在北美為700MHz,在日本為2.1GHz。根據國際電信聯合會ITU的頻譜分配建議,相關頻段多為傳統被劃歸為廣電用途的頻段;對沒有獨立頻譜監理機制的國家而言,相關頻譜的收回與再釋出均可能面臨如泰國政府一樣的挑戰。

日本正式敲定今年版智慧財產權推動計畫

  日本為了提高產業競爭力,於 2002 年提出智財戰略計畫,並於內閣中設戰略本部,由首相小泉純一郎領導,每年並仔細擬定當年度的智慧財產權推動計畫。在今年剛定案的「二零零六年智慧財產權推動計畫」中,以開發或利用大學的智慧財產及加強與產業界的合作並提出對付仿冒品等的對策為重點。   根據「二零零六年智慧財產權推動計畫」,未來將加強整合大學內部的大學智慧財產本部與民間的技術移轉機關( TLO ),以便集中運用人才、研究成果。計畫也將建立一套可簡便利用專利或論文的資料庫系統,預期明年四月起可供利用。   日本的大學院校去年在國內取得專利權的有三百七十九件,大學將專利技術移轉至民間組織件數在二零零四年度有八百四十九件,藉由技術轉移所得收入為三十三億日圓,雖然這些表現相較於以往年度均有所成長,但日本不論在專利件數或收益上,都與美國相差甚遠,日本政府為了加強國際競爭力,認為有必要加強產、學界的合作,故「二零零六年智慧財產權推動計畫」也規劃,大學院校若有意到海外申請專利權,政府將補助申請費;此外,原本只限定優惠大學正副教授的專利申請費減免措施,也將及於研究所的學生等,以期促進大學內部研發。

歐盟將公布精準醫療國際合作發展倡議

  歐盟於2016年5月公布將成立個人化醫療國際聯合會(International Consortium for Personalised Medicine, IC PerMed),並草擬發展倡議。其成立背景為目前用來治療大部分病人之一般藥品效果未如預期,且因藥物嚴重副作用導致需急性醫療入院情形,約超過60%之比例。此外,歐盟的醫療照護成本將隨著人口老化以及慢性疾病增加而加重。個人化醫療具有特定預防目的以及治療方法,因此,病人利用最佳的治療方是,可避免試驗與治療錯誤之問題。個人化醫療是一個快速成長的市場,歐洲醫療照護產業具有發展潛力,並同時帶來經濟成長與就業機會。   歐盟認為,儘管個人化醫療尚未有明確定義,但依據Horizon2020諮詢小組(Horizon 2020 Advisory Group)定義為利用個人表現型或基因型特徵之醫療模型,針對正確的個人、治療時間,以明確的醫療政策為目標進行診治,或者是找出疾病特徵給予即時的預防。其中,重要部份在於,個人化關注的不僅是藥品或醫療產品,尚需對於生物機制以及環境與疾病、健康之間的交互作用等進行瞭解是否影響整體的健康照護。雖然歐洲部分國家已經開始引進個人化醫療,但實際上歐洲仍處在早期執行階段,尚待更多的研究開發。   為此,歐盟執委會與部分健康研究機構以及決策組織團體等共同合作,決議成立個人化醫療國際聯合會,目標為2016年底之前開始此項計畫。歐盟執委會與IC PerMed組織成員合作,將進行以下事項: 1.將歐洲建立成為全球個人化醫療研究領導者地位 2.透過合作研究支持個人化醫療醫學 3.將個人化醫療的利益展現於民眾以及醫療照護體制 4.為精準醫療提供給民眾做好準備   IC PerMed將聚焦在研發補助與合作,以實現上述所設定之任務。目前,IC PerMed正研擬發展倡議藍圖。依據草擬之藍圖,IC PerMed將提供各組織成員之間彈性合作架構。藍圖主要建構於個人化醫療歐洲願景(Shaping Europe’s Vision for Personalised Medicine)之相關文件,該文件屬於政策研發議程(Strategic Research and Innovation Agenda, SRIA)之一部分,同時為先前歐盟所補助之PerMed(2013~2015)計畫範圍之一。依據PerMed SRIA,發展可區分為五項領域,包括: 發展過程與結果、整合巨量資料與ICT解決模式、將基礎轉為臨床研究、將研發鏈結市場、以及形成延續性的醫療照護體系。未來,IC PerMed發展倡議藍圖將依上述五個領域建構,並在2016年底預計公布第一部分的施行願景。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP