2014年3月25日,巴西下議院通過編號2126/2011號法案,稱為網際網路公民權力法案(Marco Civil da Internet),是國際少見針對網際網路基本權利的立法例。該法律包含網際網路使用者權利、網路服務業者(ISP)責任、保障網際網路言論自由、保障隱私權、資料所有權及網際網路的普及化。
在數個月前,美國國家安全局被揭露監控全球網路流量的作法,引起國際間的軒然大波。許多國家均表達對於美國侵害其隱私及資訊安全,感到非常不滿。巴西政府自2011年以來,便逐步推動網路網路基本權利保障之立法,經過多年的程序,終於完成此次具代表意義的立法。該法律的規範對象涵蓋使用網際網路之個人、政府及企業,主要目的在保障網際網路的開放性、可接取集中立性。其主要規範重點在言論自由、網路中立性、隱私及個資保護、網路中介者責任等四部分。
在基本言論自由部分,該法律承諾保障言論及表達的自由,促進網路企業的競爭,維護公民使用網際網路的權利,促進網路服務的普及化;在網路中立性方面,則規範ISP不得對於網路內容及應用之傳輸有差別待遇,除非基於安全或技術支援的情形,而ISP進行差別待遇時,必須告知使用者;而在個人資料及隱私保護上,除了配合巴西既有的個資法處理資料收集、分析、處理及利用外,尚規範資訊保存與資訊所有權,對於ISP所保留有關使用者的資訊,除明訂各種隱私資料的保存期限外,也規範必須經過法院授權才能加以調閱,使用者對其資料也擁有所有權,ISP對於使用者資料必須嚴格保密;最後則是網路中介機構的責任,當發現網路上有侵害著作權之傳輸行為時,必須透過法院授權,ISP業者才能加以阻斷或刪除,而相對的,ISP業者只要遵守法院授權,便無需為網路上的侵權行為負擔連帶賠償責任,避免了業者因為用戶的侵權行為而連帶受到賠償責任。
巴西本次制訂的網際網路法律在國際上相對少見,例如其中的網路中立性規範也是屬於國際上少數將網路中立性加以明文規範的國家,對於網際網路上自由的維護可以說是非常的具有示範性。目前,國際上針對網際網路的規範模式也一直爭執未定,加強管制或放鬆管制的聲音也不斷的拉鋸,此次巴西的創新立法也可說相當具有參考性。
世界經濟論壇(World Economic Forum, WEF)於2022年11月15日發布《贏得數位信任:可信賴的技術決策》(Earning Digital Trust: Decision-Making for Trustworthy Technologies),期望透過建立數位信任框架(digital trust framework)以解決技術開發及使用之間對數位信任之挑戰。 由於人工智慧及物聯網之發展,無論個人資料使用安全性還是演算法預測,都可能削弱人民對科技發展之信賴。本報告提出數位信任路線圖(Digital trust roadmap),說明建立數位信任框架所需的步驟,以鼓勵組織超越合規性,指導領導者尋求符合個人與社會期望之全面措施行動,以實現數位信任。路線圖共分為四步驟: 1.承諾及領導(commit and lead):數位信任需要最高領導階層之承諾才能成功,故需將數位信任與組織戰略或核心價值結合,並從關鍵業務領域中(例如產品開發、行銷、風險管理及隱私與網路安全)即納入數位信任概念。 2.規劃及設計(plan and design):透過數位信任差距評估(digital trust gap assessment)以瞭解組織目前之狀態或差距,評估報告應包括目前狀態說明;期望達成目標建議;治理、風險管理與合規性(governance, risk management and compliance, GRC)調查結果;將帶來之益處及可減輕之風險;計畫時程表;團隊人員及可用工具;對組織之影響等。 3.建立及整合(build and integrate):實現數位信任需關注人員、流程及技術等三大面向。首先需確保人員能力、達成該能力所需之資源,以及人員溝通與管理;第二,定義組織數位信任流程,包括制定計劃所需時程、預算及優先實施領域,調整目前現有管理流程,並識別現有資料資產;最後,針對技術使用,可考慮使用AI監控、雲端管理系統以及區塊鏈等,以監測資料之使用正確性及近用權限管理。 4.監控及滾動調整(monitor and sustain):建立數位信任框架後,需持續建構相關績效及風險評估程序,以確保框架之穩定,並根據不斷變化的數位信任期望持續改善,以及定期向董事會報告。
Groupon與LivingSocial面臨關於團購券有效期限的團體訴訟Groupon日前遭消費者集體訴訟,控告其團購券之有效期限違反消費者保護相關法律。原告消費者主張Groupon違反聯邦信用卡責任公開法案,該法案限制禮券之到期日不得少於出售後五年內。對於原告消費者之主張,Groupon提出抗辯,並申請和解。而另一團購網站LivingSocial也面臨類似的訴訟案件,並且同意支付450萬美元和解金以解決關於團購券有效期限之爭議。在以上兩個案例中,核心問題均涉及,Groupon與LivingSocial所提供之票券是否適用於聯邦和各州法律中關於禮券之規定;換言之,爭議在於,聯邦法律規定禮券到期日不得短於五年,而此規定是否適用於團購網站所提供之票券,目前尚有疑義。就團購券有效期限的現狀而言,團購禮券上通常會標示兩個有效日期,其一為支付價格(市價),另一個是推廣價格(促銷價),前者係指消費者在此交易中原本所應支出之費用,後者則指折扣價格。舉例而言,消費者購買25美元的團購券後,得前往義式餐廳享有價值50美元的餐點,而若是團購券折扣到期後,消費者仍得以團購券換取市價25美元的餐點,但無折扣。
日本修訂《教育資訊安全政策指引》以建構安全的校園ICT環境日本文部科學省於2022年3月發布「教育資訊安全政策指引」(教育情報セキュリティポリシーに関するガイドライン)修訂版本,該指引於2017年10月訂定,主要希望能作為各教育委員會或學校作成或修正資訊安全政策時的參考,本次修訂則是希望能具體、明確化之前的指引內容。本次修訂主要內容如下。 (1)增加校務用裝置安全措施的詳細說明: 充實「以風險為基礎的認證」(リスクベース認証)、「異常活動檢測」(ふるまい検知)、「惡意軟體之措施」(マルウェア対策)、「加密」(暗号化)、「單一登入的有效性」(SSOの有効性)等校務用裝置安全措施內容敘述。 (2)明確敘述如何實施網路隔離與控制存取權的相關措施: 對於校務用裝置實施網路隔離措施,並將網路分成校務系統或學習系統等不同系統,若運用精簡型電腦技術(シンクライアント技術)則可於同一裝置執行網路隔離。另外,針對校務用裝置攜入、攜出管理執行紀錄,並依實務運作調整控制存取權措施,例如安全侵害影響輕微者則可放寬限制以減輕管理者負擔。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現