墨西哥的聯邦資料保護法在二0一0年四月經墨西哥國會通過後,已於同年七月六日生效。這個新法旨在保護個人的隱私權並強化個人對自身資訊的掌控。與我國新近通過的個人資料保護法相同,墨西哥的這個新法所規範的範圍也包括了私部門對個人資料的蒐集、處理與利用。
在新法通過之後,原本的聯邦公共資訊近用機構(Federal Institute for Access to Public Information),亦擴張執掌並更名為聯邦公共資料近用及資料保護機構(Federal Institute of Access to Information and Data Protection)。在新制下,該機構將在原有負責事務外,另肩負起監督私部門就個人資料保護的相關事務。
此外,該法設計了一個雙重的監督機制:當資料的蒐集、處理或利用人,也就是所謂的資料控制者(Data Controller)出現可能違反聯邦資料保護法的狀況,將先由各相關部門的主管機關,例如主管經濟事務的機關或主管交通事務的機關來介入處理,而非由聯邦公共資料近用及資料保護機構立刻介入。
中國大陸科學技術部於2019年9月12日公布《關於促進新型研發機構發展的指導意見》,目標是提升國家創新體系整體效能。在2016年5月中國大陸國務院發布的《第十三個五年規劃綱要》提及,為強化科技創新的引導作用,必須優化創新組織體系,藉由發展市場導向的「新型研發機構」,推動跨領域偕同創新。故「新型研發機構」必須聚焦在科技創新需求,主要從事科學技術創新與研發服務,具備投資主體多元化、管理制度現代化、營運機制市場化、用人機制靈活的獨立法人機構,得依法註冊為科技類民辦非企業單位(社會服務機構)、事業單位和企業。 中國大陸科學技術部本次公布的指導意見,主要係針對「新型研發機構」在未來政策上之具體運作與發展方向提供指引,包括新型研發機構能夠申報的國家科研項目、鼓勵設立科技類民辦非企業單位的新型研發機構政策、政府獎勵科研措施等說明。 (一) 新型研發機構申報國家科研項目 本指導意見第11條,符合條件的新型研發機構,可申報國家科技重大專項、國家重點研發計劃、國家自然科學基金等各類政府科技項目、科技創新基地和人才計劃。 (二) 鼓勵設立科技類民辦非企業單位的新型研發機構 本指導意見第12條,科技類民辦非企業單位應依法進行登記管理,營運所得利潤主要用於機構管理運作、建設發展和研發創新等,出資方不得分紅。並得依據《中華人民共和國企業所得稅法》及非營利組織企業所得稅、職務科技成果轉化個人所得稅、科技創新進口稅收等規定,享受稅收優惠。 (三) 支持與獎勵科研措施 本指導意見第14條,地方政府得根據區域創新發展需要,支持新型研發機構建設發展,包括給予基礎建設、購買科研設備、人才住房配套服務;採用創新券(innovation vouchers),推動企業向新型研發機構購買研發創新服務。第15條,更鼓勵透過國家科技成果轉化引導基金,支持新型研發機構推動科研成果轉化。
日本對未來2020年至2030年間網路基礎設施之預測日本總務省未來網路基礎設施研究會(将来のネットワークインフラに関する研究会)4月份針對日本人工智慧(Artificial Intelligence 簡稱AI)、物聯網(Internet of Things 簡稱IoT)、資訊及通訊技術(Information and Communication Technologies 簡稱ICT)等技術相對應之網路基礎設施做作出預測。 在2020年以後第五代通信技術(5G)、物聯網系統、高畫質通訊等技術相繼成熟及普及化,相關業者勢必發展出多樣化、高度專業化使用者需求之網路結構,而手機聯網系統從單純的資訊傳遞網路,逐漸變成社會系統之神經網絡(社会システムの神経網)。 物聯網服務目前係由專用終端設備,並根據特定的應用目的建構,但在未來的網絡基礎設施,可能出現如橫向合作應用的通用平台,到2030年左右物聯網服務中M2M(Machine to Machine,機器和機器之間的通訊)的佔有率估計將達到10%。 人工智慧網路技術不僅僅是虛擬化層網路(仮想化レイヤのネットワーク)之維護和操作,更是物理層面的網路(物理レイヤのネットワーク)資源的管理,AI仍然只擔任協助之工具。其中,物理網絡(物理ネットワーク)和邏輯網絡(論理ネットワーク)應分別處理,邏輯網絡將型成多層次化,將變得難以檢測故障和調查原因,但在安全和可靠的網絡基礎設施下,經營者使用AI技術仍然是沒有問題的。 由於雲端技術、通訊技術之提昇,非電信營運者進入網路經營之商業型態逐漸產生,型成網路使用者、資料提供者之多樣性及複雜性。網路流量方面,在2030年左右將超出100Tbps核心網絡所需的傳輸容量,達到以往的光纖的容量限制,將透過無線電接入技術進一步發展,補足不足的光學寬頻。然而,人們對於網路更快的通信速度、安全性及可靠性的功能需求是沒有改變的。
保護、分級與言論(上) 歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。