英國電信管制機關Ofocm於2013年8月宣布了新的措施,目的在幫助消費者轉換其電話和寬頻服務業者時,更加輕鬆與方便。
當消費者計畫轉換其寬頻服務業者時,時常面臨著必須許多不同業者的手續、流程,包含轉換與被轉換的業者,以及中介服務的業者。如此複雜的轉換過程造成混亂,也容易讓消費者認為轉換服務業者是很麻煩的,某種程度上阻礙消費者選擇較佳服務業者的機會。
Ofcom的研究指出,在轉換業者的過程中,最大的阻礙在於,消費者有時覺得不好意思向目前提供服務的業者提出轉換的申請,在這樣的過程中,現在的業者有很多的主導權,例如對於轉換過程的遲延或服務的中斷,均導致消費者承受不必要的拖累。
為了解決這些問題,Ofcom決定,未來當消費者計畫轉換服務業者時,只需要遵循一個單一的轉換程序,由新的服務業者代表消費者進行此一過程。
這個「由遷入供應商主導(gaining provider led,GPL)」的過程中,已廣泛的是用於電話和寬頻服務之轉換程序,消費者將不再需要聯繫他們現有的服務業者、收到一個編號,以轉換業者。
Ofcom還設置了額外的措施,以幫助防止消費者在轉換的過程中遭遇服務的中斷、或是有未經消費者同意的轉換。
一個明確的和改進的切換過程中,以幫助消費者。
Ofcom在既有GPL程序的基礎上進行改善,制訂單一的流程,強化流程的監督,為消費者提供增值收益。
根據Ofcom初步制訂的單一轉換流程,服務業者必須遵守以下指示:
‧留存每一位消費者轉換服務的相關同意記錄,以保護消費者在不知情之下,被轉換到不同的業者;
‧防止消費者轉換時出現服務的空窗期,特別是電話和寬頻服務的轉換;
‧給消費者提供關於業者服務品質的資訊,如提前終止服務時,可能需負擔的額外費用變化,使消費者可以做出明智的決定。
Ofcom計畫於2014年初將細部程序制訂並執行,並可能提出下一階段的工作,涵蓋兩個關鍵領域:
‧持續與業者溝通,確保消費者得到更好的保護;
‧進一步改進電話、不同類型的寬頻服務、不同類型的網路之間的轉換(例如Cable網路)英國傳播、電信、科技及媒體相關領域業者及團體於 2006 年 4 月聯合發表一份意見書,反對歐盟提出的新視聽媒體服務指令( Audiovisual Media Services Directive )草案。同時英國政府也正關注這項草案並與其他會員國進行討論。 自 2005 年 9 月起,歐盟開始針對電視無國界指令( Television without Frontiers Directive )的修正進行討論。歐盟考慮將該指令修改為視聽媒體服務指令,擴大其規範範圍,使其包括各種與電視相似( TV-like )的服務,並將所有視聽媒體服務區分成線性( linear )及非線性( no-linear )服務,分別給予不同程度的管制。 不過英國有許多業者及團體對於這項新指令的制訂深表不贊同,其認為: (1) 就非線性服務(例如隨選視訊)而言,目前既有法規以及業者自律規範已足以保障消費者; (2) 線性及非線性的分類方式可能不適宜作為法律定義的基礎; (3) 新指令將可能阻礙新進業者參與市場的意願,甚至導致投資者轉向其他國家發展。所以希望透過連署,要求歐盟重新檢視這項新指令。
歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。 指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。 指引的主要內容包括: 個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。 禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。 GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。 工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。 對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。 「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。 工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。 在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。
韓國通過網路電視法案由於新興通訊技術的應用與網路頻寬的快速成長,透過網路收看電視已不再是遙不可及的科技願景。網路電視(Internet Protocol Television;IPTV)在許多國家都已經是逐漸應用成熟的服務,但是相對而言,法規的管制架構卻多仍處於追趕摸索的階段。 網路電視之相關法制爭議眾多,曾被提出討論者如攸關管制基準之網路電視定位,是否視同傳統廣播電視加以管制?相關之義務是否比照要求(如對於無線電視之必載義務)?網路電視市場之界定?市場力量之監督與公平競爭環境之維護等,皆為重要的關注焦點。 韓國國會傳播特別委員會於上月(11月)通過一項網路電視法案(IPTV Bill),對於重要之網路電視相關規範加以界定。此一國會傳播特別委員會所通過之網路電視服務法草案,對未來網路電視可能的市場主導者(包含廣播電視公司、網際網路服務提供者、電信公司等)之行為,事先加以規範。例如規定KT等重要電信公司提供網路電視服務並不需要另行成立附屬公司;另一方面,廣播電視公司未來將可提供全國性的網路電視服務,惟其市場佔有率將限於整體市場的三分之一以下。 未來的網路電視型態可能包含被動收視或主動要求播送,其他附加的服務更包含透過網路電視進行購物、遊戲、金融服務等,潛藏之商機已引起各界注意,也值得國內盡早思考整體管制架構,促進產業成熟發展。
演算法歧視將適用於《紐澤西州反歧視法》2025年1月9日美國紐澤西州檢查總長與民權部(Division of Civil Rights, DCR)聯合發布「演算法歧視指引」(Guidance on Algorithmic Discrimination and the New Jersey Law Against Discrimination),指出《紐澤西州反歧視法》(the New Jersey Law Against Discrimination, LAD)亦適用於基於演算法所衍生的歧視。 隨著AI技術日趨成熟,社會各領域已大量導入自動化決策工具,雖然它們能提高決策效率但也增加了歧視發生之風險。指引的目的在於闡述自動化決策工具在AI設計、訓練或部署階段可能潛藏的歧視風險,亦列舉出在各類商業實務情境中常見的自動化決策工具,並說明它們可能會如何產生演算法歧視。以下分別說明《紐澤西州反歧視法》適用範圍,以及與演算法歧視有關的行為樣態。 一、《紐澤西州反歧視法》之適用主體及適用客體 《紐澤西州反歧視法》禁止在就業、住房及公共場所等領域所發生的一切歧視行為,其適用主體相當廣泛,包含但不限於下列對象:雇主、勞工組織、就業仲介機構、房東、房地產經紀人、公共場所之經營或管理者、以及任何教唆或協助歧視行為之個人;而該法之適用客體亦有明確定義,為具有受保護特徵(如性別、族裔、身心障礙等)之自然人或法人。 此外指引特別說明,即便適用主體無意歧視、或其所使用之自動化決策工具係由第三方所開發,只要發生歧視行為依然違反《紐澤西州反歧視法》。這是因為《紐澤西州反歧視法》係針對歧視所帶來的影響進行規範,儘管無意歧視,其所帶來的影響並不一定比故意歧視還要輕微。 二、 歧視行為的三種樣態 1.差別待遇歧視 差別待遇歧視係指適用主體基於受保護特徵而對適用客體施予不同對待。舉例而言,若房東使用自動化決策工具來評估黑人潛在租戶,但不評估其他族裔的潛在租戶,則會因為其選擇性使用自動化決策工具而構成歧視。 2.差別影響歧視 差別影響歧視係指適用主體的政策或行為對適用客體造成不成比例的負面影響,且該政策或行為未能證明具有正當性、非歧視性、或不存在較少歧視性的替代方案,則該政策或行為構成歧視。例如,某商店利用臉部辨識技術來偵測過去曾有偷竊紀錄的顧客,但該系統對配戴宗教頭巾的顧客較容易產生誤判,此亦可能構成歧視。 3.未提供合理調整 合理調整係指身心障礙者、宗教信仰者、懷孕者以及哺乳者,在不會對適用主體造成過度負擔的前提下,得向其提出合理請求,以符合自身的特殊需求。以身心障礙員工為例,若雇主使用了自動化決策工具來評估員工的工作表現(例如監測員工的休息時間是否過長),在未考量合理調整的情況下,該工具可能會過度針對身心障礙員工進而構成歧視。 為減少演算法歧視發生頻率,「演算法歧視指引」特別闡述自動化決策工具可能會出現的歧視行為及歧視樣態。此份指引的另一個意義在於,縱使目前紐澤西州並沒有一部監管AI的專法,但仍可以利用現行的法律去處理AI帶來的種種問題,以利在既有的法律架構內擴充法律的解釋來回應新科技的挑戰,並達到實質管制AI的效果。