1980年09月發布的「隱私保護及個人資料之國傳輸指導指引」,當中的8大原則對個人資料保護的法制產生深遠的影響,但隨技術發展,資料傳遞所產生的風險遠較於1980年代來得複雜。2013年所發布的內容,風險管理及為全球資料流通的互動性為兩大主軸,因此,在指引中納入新的概念,包含1.國家隱私策略:有效的隱私法制是不可或缺的,但在今日國家應該將隱私保護放在更高的戰略位置、2.隱私管理程序:(以個人資料)為核心服務的機制應系統化的保護隱私、3.資料安全漏洞通知:涵蓋有權者及各別個體的通知。 在指引第一章附件的第三部份-責任的履行,增加資料控制者(data controller),應有管理程序以符合上述的原則,該管理程序需包含資料風險的評估、內部監控、通知主管機關等要求;第五個部份-國家實施則新增加隱私主管機關的設立、考量不同角色(如:資料控制者)所應遵循的行為、考量其它的配套措施,如技術、教育訓練等。 在OECD的成員國,如:日本,已開始向該國國內說明2013年版的指引,但亦有部分會員國,如:加拿大,由於指引涵蓋公部門及私部門,加拿大亦討論如何與該國的資訊近用法(Access to Information Act) 及隱私權法 (Privacy Act)建構一個完善的適用模式。指引對於未來國際資料傳輸及管理程序的建置,必然產生結構性的影響,值得持續關注。
政府採購電腦 強制採雙作業系統過去中信局的標案,大多以提供兩種不同的作業系統,供政府機關及學校等公務單位選購,但因大多數的政府機關不瞭解辦公室的電腦是否與 Linux 相容,加上缺乏資訊專業人員,最後絕大多數仍以採購視窗作業系統為主。 由於今年立法院在審查預算時,加了附帶決議,要政府機關採購微軟產品的金額要減少 25% ,故中信局最近在執行政府資訊產品採購時,首度強制投標的個人電腦業者,要通過「 Linux 軟硬體相容性基本驗證規範」,從第 11 標開始(案號 LP5 940025 ),明訂投標的廠商要提供符合「基本中文化實用性測試應用規範」(具備瀏覽器、電子郵件、文書處理等功能)的 Linux 作業系統,並通過「 Linux 軟硬體相容性基本驗證規範」。換言之,未來桌上型電腦出貨都必須採雙作業系統( Linux 與 Windows 並存),可望有效帶動 Linux 相關軟硬體的商機。 中信局指出,第 11 標從 5 月 25 日 公告後,到 9 月底結束,交貨期從 6 月中旬開始,總計今年要採購的 10 萬台到 12 萬台桌上型電腦,都必須是雙作業系統。也就是使用者一打開電腦,會出現 Linux 或 window 作業系統,若要讓使用者選擇 Linux 作業系統,業者得強化教育訓練,同時在後續維修服務也要相當用心。預料各公務單位將因此提高桌上型電腦採用 Linux 的意願,對 Linux 作業系統及相關應用軟體的商機,起相當大的帶動作用。
Comcast可能因違反FCC之網路開放原則而受罰美國聯邦通訊傳播委員會(Federal Communications Commission, FCC)主席Kevin Martin於今年(2008)7月11日表示,就Free Press、Public Knowledge、ConsumersUnion等消費者權益促進團體向FCC投訴有線電視系統業者Comcast故意阻擋BitTorrent之流量違反FCC之網路開放原則一案,他將建議FCC要求Comcast揭露其相關行為,並提醒用戶其過濾流量之行為與方式。 2007年11月時,Free Press、Public Knowledge、ConsumersUnion等消費者權益促進團體向FCC投訴有線電視系統業者Comcast故意阻擋P2P流量的行為已經違反FCC於2005年時發佈之網路開放原則。該網路開放原則包括消費者有權透過網路接近任何合法內容;消費者可透過網路自由使用任何合法之應用服務;消費者可自由將任何合法之設備與網路連接;消費者有權在各網路、應用服務或內容提供者間自由選擇。 針對前述投訴,一開始Comcast矢口否認有任何阻擋P2P資料流量之行為,隨後Comcast則改口其對於P2P資料流量之「延遲」乃是一種合理的網路管理(reasonable network management),並不違反FCC之原則。 嗣後,FCC於今年(2008)1月份公開徵求公眾意見,並持續就此一申訴進行調查。Comcast亦在6月份公布新的網路管理政策,其表示未來將不再針對特定伺服器進行網路管理,而是改以網路流量使用較高之用戶為目標,以過濾垃圾郵件、偵測惡意程式或流量以防止病毒散佈、限制或暫時延遲P2P資料流量等方式以控制或限制網路使用。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。