英國財政大臣Gordon Brown在倫敦的一場演講中指出,OFCOM現正研擬制定一套適用於各種不同媒介之內容的分級識別標誌。未來不論電視節目、廣播節目、電影、電腦遊戲或者網站內容都可適用該分級識別系統,以幫助父母為家中的孩童過濾不適當的內容,保護孩童在數位化的時代仍可以遠離不適合的媒體內容。
在該場演講中,Gordon Brown 表示,身處在數位時代,父母越來越難掌握孩童所接觸的內容是否適當,但是在無法扭轉科技的進步前提下,應當善加利用新科技並使父母得以透過各種新科技繼續保有為孩童選擇適當的內容之控制權。
OFCOM的發言人僅透露該套分級識別系統不僅適用於所有種類的媒體內容,而且將以文字方式描述各種內容,例如特定內容之裸露程度為何,以作為視聽大眾決定是否接收該內容前的參考。另外,不同於現行的電影分級制度乃是以年齡作為不同等級內容的分級標準,未來OFCOM所推出的分級識別系統將無關乎年齡。不過OFCOM亦表示該分級識別系統的詳細內容目前尚未決定,仍在討論階段。
除了制定一套適用於所有內容的分級識別系統之外,OFCOM未來亦將透過電視廣告以及要求ISP業者配合向消費者宣導各種過濾軟體,以便消費者得以過濾網路上之色情猥褻或暴力之內容。
「群眾募資(crowdfunding)」過去原泛指一切提出資金需求計畫,向社會大眾招募資金的行為;目前則指資金需求者透過群眾募資網路平台提出資金需求,由平台代為籌資後再將資金轉交與資金需求者之活動。 群眾募資可紓解創業家有創意無資金無擔保品的資金困境,因此主要運用於難以透過傳統金融管道取得資金之產業,例如文化創意產業。然而除了商品生產或短期計劃的募資,廣義的群眾募資運用尚包含永續的事業資本募集以及週轉資金募集。目前各種群眾募資模式可分為捐贈模式、股權模式及債權模式: 1、捐贈模式:群眾捐錢贊助某個特定方案,但不期待因個人的捐助而獲得任何金錢上的回報。但通常會獲得提案者承諾提供之實物或者是體驗服務作為回饋。 2、資本模式(或稱股權模式):群眾透過網路平台將金錢投入某個專案,未來可以獲得因該專案所成立之公司的股票,或者是獲得盈餘或收益的分配。 3、債權模式:群眾透過網路平台將金錢借給某個專案或某人某公司,承諾未來會償還所借之金額及利息。
歐盟創業教育政策推動對我國創業人才培育之啟示 美國對法國數位服務稅採取301條款貿易報復美國貿易代表署(Office of the United States Trade Representative, USTR)於2020年7月10日針對法國數位服務稅(Digital Services Tax)首度採取「301條款」貿易報復。《1974年貿易法》第301條授權美國政府在對外之國際貿易協定未獲執行,或貿易夥伴採取不公平貿易行為時,進行調查及後續的貿易報復。法國作為全球第一個課徵數位服務稅的國家,法國國民議會於2019年7月11日通過數位服務稅,美國隨即於2019年7月16日開啟「301條款調查」並召開公聽會。美國貿易代表署於2019年12月6日發布調查報告(Report on France’s Digital Services Tax)指出法國數位服務稅是針對美國不合理或歧視性的貿易帳礙。美國總統川普和法國總理馬克宏於2020年1月23日達成暫緩數位服務稅課徵之共識,然而法國在6月再度實施數位服務稅。美國遂對法國啟動「301條款」貿易報復,貿易報復項目係法國進口美國的化妝品、手提包等貨品課徵25%的稅,受波及的貨品粗估高達13億美元。儘管美國企圖透過貿易報復作為警示,許多國家仍持續研擬採取或已經開始課徵數位服務稅。美國貿易代表署指出:「過去兩年,部分國家研擬或已經開始採取數位服務稅,而有相當多的證據可以證明數位服務稅是針對美國大型科技公司。」繼法國之後,美國貿易代表署於2020年6月2日再度開啟「301條款調查」,此次調查對象包括奧地利、巴西、捷克、歐盟、印度、印尼、義大利、西班牙、土耳其和英國等。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。