新加坡政府在2016年05月05日發表了數位平台「MyInfo」。
新加坡政府推出此一平台的目標是「以數位方式來整合目前的工作,去除現行的不便與散亂,讓民眾與政府打交道時更輕鬆 」。因此,「MyInfo」將每個新加坡公民散在各政府機關間的個人資料整合成單一檔案,使用者也可以自行決定加入額外的資訊,像是年收入、教育程度、就業情況以及家人資料。當民眾需要填寫不同的政府表單時,不需要再一直填寫重複的內容。
新加坡政府表示,每個公民可以自由決定他們要不要註冊MyInfo。當使用者選擇使用這項服務時,相關機關會針對可能被運用的資料先徵詢使用者的同意。
MyInfo計畫是由新加坡財政部與資訊通信發展管理局共同發起。新加坡政府的數位服務團隊在一年前左右開始設計這項服務,目前平台上仍持續在測試並改善使用者經驗。
MyInfo從2016年01月到04月試營運,已經有超過32,000人使用這項服務(佔新加坡總人口0.6%)。在2016年06月之前,MyInfo會提供15項服務,包括註冊公用住宅、更新報稅資料以及求職資訊等。到2018年,所有需要雙認證的數位服務都會整合在MyInfo平台,估計會有200項服務項目。
這個計畫是新加坡「數位政府」(Digital Government)政策的重要拼圖之一。新加坡政府將持續擴大MyInfo的服務項目,希望藉由此服務來蒐整更多資料,並增加可供政府機關間分享的個人資料數目。伴隨愈加豐富的數據資料,各政府部門更能事先了解民眾的需求並提出民眾真正需要的服務。
2015年11月3日德國杜塞道夫地方法院(以下稱德國法院)依據歐盟法院之《華為訴中興》案(Huawei v ZTE case, 16 July 2015, Case C- 170/13)的先決裁判發出第一例禁制令(Cases 4a O 144/14) (Nov. 3, 2015)。這個判決係義大利公司SISVEL公司認為青島海爾德國公司(以下稱海爾公司)侵害其有關GPRS及 UMTS無線網路專利組合之標準專利,並已經對海爾公司發出專利侵權通知,並發出授權要約,海爾公司則抗辯認為,SISVEL僅通知其母公司而未通知其分公司,且其授權要約不符合FRAND原則。 德國法院認為,SISVEL只要將足夠的專利侵權資訊及授權要約通知海爾母公司進而據以判斷是否與SISVEL展開授權協商即可,若要求專利權人亦須一一通知其分公司,則將流於形式。 其次,海爾公司雖因認為SISVEL要求之授權金過高,故拒絕SISVEL的授權要約並提出反向要約,但卻未在提出反向要約後之合理期間內依據歐盟法院在《華為訴中興》案先決裁判中之見解,對SISVEL提供保證金以擔保其授權協議尚未達成前對SISVEL專利之使用費用。故德國法院進一步對前述合理期間給予確切期間,即拒絕專利權人要約時起一個月內。 至於海爾公司主張SISVEL授權要約不符合FRAND原則之抗辯,德國法院認為因海爾公司未履行前述程序,故尚無須判斷SISVEL授權要約是否FRAND原則。故何種情形屬於符合FRAND原則,仍留由後續之實務見解加以補充。
歐盟將對美國政府網路賭博管制行為進行調查設於英國倫敦的遠距賭博協會(Remote Gambling Association, RGA)於2007年12月向歐盟執委會提出申訴,指美國政府對外國網路賭博業者選擇性執法行為已違反服務貿易總協定(General Agreement on Trade in Services, GATS)規定。歐盟執委Peter Mandelson因此表示,歐盟將會針對美國政府此一差別管制行為進行調查,以瞭解美國政府是否已違反貿易障礙規定。 美國在世界貿易組織(World Trade Organization, WTO)談判中曾承諾開放網路賭博,嗣後卻在2006年通過「違法網路賭博執行法」(Unlawful Internet Gambling Enforcement Act, UIEGA),禁止銀行和信用卡業者對美國境外之網路賭博業者提供支付服務,導致所有歐洲之網路賭博業者選擇退出美國市場。 對於美國UIEGA立法,世界貿易組織曾表示,美國政府固然有權透過法規禁止離岸賭博(offshore betting)以保護公共道德,但該規範僅針對外國業者,未一視同仁適用於美國境內業者,已違反貿易法規。對此,美國政府和歐盟、日本、加拿大等國曾達成協議,承諾在其他方面予以補償,以換取各國同意美國退出世界貿易組織在賭博部分之規範。但由於美國司法部仍持續調查歐洲網路賭博業者在前述法規生效前的營業行為,並宣稱渠等已違反美國法規,此一調查行為因此導致此次遠距賭博協會向歐盟提出申訴;待調查結果出爐後,美國與歐盟間的貿易關係預料將受到不小的影響。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。