英國數位、文化、媒體暨體育部於2018年10月14日公布「家用智慧裝置消費者指引」(Consumer guidance for smart devices in the home)。該指引之目的係因應家用之智慧及聯網設備(例如:智慧電視、音樂播放器、聯網玩具或智慧廚房等)日益普及,以及可能發生之侵害消費者個人資料之風險。
本指引提出以下方向,供消費者參考:
一. 智慧裝置之設定
(一) 應閱讀與遵循智慧設備之設定指示。
(二) 確認設備指示是否要求使用者須至製造商網站設定帳號。
(三) 若所設備預設之密碼過於簡單(例如,0000),則應更換成較複雜之密碼。
二. 帳號管理
(一) 確保密碼複雜性。
(二) 若設備提供雙重驗證功能,消費者應使用之。
(三) 特定產品可能提供遠端存取功能,消費者應於不再家時考慮將該功能關閉。
三. 持續更新應用軟體與Apps
(一) 消費者應檢查其設備是否可設定自動更新。
(二) 應安裝最新版本的軟體與Apps。
四. 若接到資安事件之通知,應採取行動
(一) 於接到資安事件通知後,應訪問製造商網站以確認其是否提供後續因應措施等資訊。
(二) 定時確認國家安全網路中心以及資訊保護委員會辦公室網站是否公布相關網路安全指引。
本文為「經濟部產業技術司科技專案成果」
在德國,由於納粹的醫學實驗歷史,人類胚胎研究一向是極為敏感的議題,並且為了研究用途摧毀胚胎也有極大的倫理爭議。德國下議院於2001年立法禁止從胚胎中粹取幹細胞後,在現行法規下幹細胞研究者只可以進口2002年1月1日以前製造的胚胎幹細胞供使用。不過在科學家一再表達只有極少量的細胞株可有效提供研究的關切下,德國下議院日前以346票對228票通過幹細胞法之修正,將截止日期(cut-off date)之規定由2002年1月1日,修正為2007年5月1日,藉此放寬對人類胚胎幹細胞研究的限制。 不過此次國會的修法仍引起支持與反對胚胎幹細胞研究人士的激烈爭論,支持一方表示現行截止日期的規定強烈影響德國幹細胞的研究,德國研究基金會(German Research Foundation)即強調目前全球有超過500個細胞株,但德國研究人員卻只被允許使用21個老舊且部分遭到污染的細胞株。另一方面,在德國主教的集會上,佛萊堡(Freiburg)大主教鄒立區(Robert Zollitsch)則對放寬現行限制提出警告,他表示「研究的自由不該與對生命的基本保障等量齊觀」。 修法後,德國研究人員將可透過國際合作進口使用2007年5月1日以前所製造的胚胎幹細胞。這是正反雙方妥協下的結果,但是德國對於限制胚胎幹細胞研究的基本立場是否會由此開始鬆動,則仍待後續觀察。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
日本「新產業構造部會」提出2030年「新產業構造願景」日本政府認為IoT、Big Data以及人工智慧等破壞式創新技術的出現,目前世界正處於「第四次工業革命」之重大變革,而究竟IoT、Big Data及人工智慧的發展會對經濟、社會產生什麼程度的影響,公私部門有必要共同對應及討論共同戰略願景。因此,經濟產業省於2015年9月17日在「產業構造審議會」下設置「新產業構造部會」,以公私協力的方式共同策定未來產業願景。 該會議的具體檢討事項包括: 1. 具體變革狀況檢視:IoT、Big Data、人工智慧等技術,究竟會對產業構造、就業結構,以及經濟社會系統具體產生如何的改變。 2. 變革之影響:上述的變化可能創造機會,亦會產生風險。因此,於經濟社會層面要怎麼解決迎面而來的挑戰,是否有可能克服相關限制,亦為應關注的焦點。 3. 把握國際上的動向:上述的機會及風險,各國政府及企業等應對的戰略究竟為何。 4. 日本政府具體之特定處方籤:於上述背景下,日本政府及民間企業,應提出個別之戰略及對應方法。 綜上所述,公私部門應協力做成包含時間進程的「指南針」,最後提出2030年「新產業構造願景(新産業構造ビジョン)」,對將來經濟社會系統進行預測。
歐洲資料保護委員會於2020年2月18日發布GDPR實施情形的報告「歐洲資料保護委員會」(European Data Protection Board, EDPB)於2020年2月18日發布GDPR實施情形的報告。報告內容主要聚焦於資料跨境傳輸機制、歐盟會員國間合作機制(含EDPB工作情形)以及中小企業法遵等其他議題。 在資料跨境傳輸機制方面,EDPB歡迎各國提出適足性認定的申請,並表達其在評估是否具有適足性時,將著重於相對方是否能使權利確實執行、矯正措施是否有效執行以及對於持續性的轉移是否有足夠保護措施等。EDPB特別建議執委會,應保守看待G20或G7等會議所進行的「資料自由流通」概念,並確保個資保護水準不會因此受到影響。 而在其他跨境傳輸機制上,EDPB建議歐盟執委會應儘速更新標準契約條款,使其能與GDPR規定相符;同時其公佈目前正在審查40個「拘束性企業規則」(Binding Cooperation Rules, BCR),預期至少半數將於2020年審結;而在驗證及行為準則方面,EDPB預期將於2020年底完成相關指引的公告。 在歐盟會員國間合作機制上,EDPB強調其將著重於探討新興技術發展如何兼顧個資保護,以使GDPR作為技術中立的架構,能在保護個資同時兼顧創新。此外,EDPB承認由於各國程序規範上的差異,使得合作面臨挑戰,其建議歐盟執委會持續觀察程序差異對於GDPR執行成效上的影響。EDPB同時認為目前各國監管機構所獲得的資源仍然不足,建議各會員國應提供監管機構更充足的資源。 在中小企業議題上,EDPB承認GDPR對中小企業帶來挑戰。對此,除已由各國監管機構提供相關支援外,EDPB也將持續投入相關支援工具的開發,以減輕中小企業的負擔。 整體而言,EDPB認為GDPR實施大體上是成功的,並能提高歐盟法律體系在全球的知名度,目前並無修改GDPR的需求。 根據GDPR第97條規定,歐盟執委會應於本年5月25日前針對跨境資料移轉、歐盟會員國間合作機制等GDPR落實情形向歐洲議會及歐盟理事會提交評估報告;並於此後每4年提交一次。EDPB此一報告係為提供執委會完成前述報告參考而做。