歐盟委員會在2020年1月提出之工作計畫中,即表示2020年第四季度將會提出新的《數位服務法案》《Digital Services Act》,以因應新興數位時代下的歐洲。
2020年10月29日歐盟競爭事務專員表示,幾個科技巨擘針對每天蒐集大量訊息並加以過濾篩選,最後傳遞予公眾有限數量消息的過程,將必須採取更多措施以清除非法及有害的內容,此舉旨在解決與大型社交媒體平台相關之兩大問題,即仇恨言論之傳播以及傷害社會公共對話與民主之言論。
該法案將規範科技公司須針對其行為製作報告,並告知使用者,他們所看到的廣告是由誰付費進行投放、為什麼他們會成為這支廣告的目標對象。蓋因科技公司之數位平台先是無償蒐集使用者個人資料及偏好,再針對這些資料進行分析後,對使用者量身訂製廣告行銷策略,最後科技公司依靠此套方法賺進大量廣告收益,例如,臉書與Google在2018年的廣告收入佔據總收入百分之九十八及百分之八十五以上。
該法案亦將針對科技公司篩選訊息,最後有選擇性的發送特定訊息予社會大眾及量身訂製置入廣告之行為,設立明確規則,羅列應作為或是不作為之清單。例如禁止推銷自己的服務,蓋阻止競爭對手向消費者提供更好的交易服務,等同於變相阻止消費者享受自由競爭和創新的成果;故將先設立協調一致之調查框架,提供一套統一的規則以調查數位服務市場已存之結構性問題,而後在必要時可以採取相關行動,使市場更加具有競爭力。歐盟預計將於2020年12月2日宣布《數位服務法》草案,在正式立法之前,會再與歐盟國家取得一致共識。
鑑於頻寬市場以及電信市場的競爭愈趨炙熱,不肖資通訊業者對於弱勢消費者,透過詐騙或其他不適當銷售手法而獲利的案例也層出不窮。爰此,英國通訊管理局(Office of Communication/ Ofcom)在2007年2月8日,決定擴張防止固網電信業者對消費者「不正當銷售」(mis-selling)的規範內容(General Condition)。 「不正當銷售」指的是電信公司或其雇員,利用不受歡迎或者非法的銷售產品技巧所從事的相關市場活動。其中最嚴重的銷售方式,又以「砰一聲」(slamming)的銷售行為,最令人詬病。因為該銷售行為是在未經消費者明示同意、或者未使其獲得足夠知識與資訊下,逕自將提供的服務轉換到另一家公司。例如:轉換服務提供者,但並未通知你;通知轉換服務提供者,但未經你同意;所簽約的服務與提供的服務不盡相同;銷售人利用使你倍感壓力的方式來銷售服務等等,均屬誤賣行為。 此次的規則擴張,在規範對象上也會納入那些使用用戶迴路的服務提供者。Ofcom認為在日益激勵的市場競爭下,這些擴張規則有助於消費者權益,並能保護他們免受不適當的銷售活動干擾,更可確保消費者追求更好消費標的市場信心。
歐盟提出共同策略架構以打造完整之創新研發供應鏈歐盟執委會(The European Commission)於2011年2月9日提出「從挑戰到機會:邁向歐盟研發創新補助之共同策略架構」綠皮書(Green Paper - From Challenges to Opportunities: Towards a Common Strategic Framework for EU Research and Innovation funding,以下簡稱綠皮書),以整合現有研發創新補助機制(包括FP、CIP及EIT)、改善參與容易度、增進研發之科學影響及經濟價值為目標,提出以共同策略架構(Common Strategic Framework)作為歐盟未來創新研發補助機制的構想,希冀藉此串聯基礎研究、技術服務商品化及非技術性創新等環節,以打造完整之創新研發供應鏈(innovation chain)。 歐盟共同策略架構包括了三大重點目標:1.聚焦於「提供歐盟一個世界級的科學基地」、「增進跨國間競爭」及「解決重大挑戰」;2.使歐盟研發補助更具吸引力且更易進入;3.建立更為一致的會計制度,使補助資金的使用更為容易。 歐盟綠皮書在具體作法與詳細內容上雖有待擬定,但針對現有研發補助機制之改進已提出明確方向,包括:釐清補助目標、減少法規複雜性、增進補助的附加價值與影響力,同時避免資源重覆及分散、簡化參與程序、擴大補助計畫參與、透過補助增進競爭等。此外,執委會亦已預定於2011年底提出具體立法建議,未來此一立法將為歐盟科技研發補助架構帶來如何之變革與影響,值得密切注意。
美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
論析各國之企業智慧資產揭露機制