Facebook之實名制政策禁止用戶使用假名,此一行為已遭德國隱私保護機構禁止。德國Schleswig-Holstein邦的資料保護中心組織(Office of the Data Protection Commissioner,簡稱ULD)控訴臉書「實名制」已違反德國電信媒體法(Telemediengesetz)。依據德國「電信媒體法」規定,只要匿名的使用具有技術上之合理性及可行性時,服務供應商必須允許用戶採用假名,惟Facebook的實名制政策卻禁止用戶使用假名。資料保護中心表示,Facebook要求用戶註冊時須填入真實姓名,違反德國電信媒體法第13條第6項。ULD表示,為確保網路用戶權利及遵守網路保護法,臉書應立即終止實名制的執行。Facebook發言人則對ULD指控不以為然,主張「服務供應商有權在現行法律下自行決定所採取之匿名政策」,並表示Facebook採取實名制係為保護社群安全,若發現用戶使用假名將刪除帳號。Facebook發言人認為「這只是在浪費德國納稅人的金錢!此法律之指控毫無意義,同時我們也將據理力爭。」Facebook認為,實名制是該網站經營之重要機制,除了能與其他社群網站做出明顯的市場區隔外,更能積極保護用戶的個人資料。
美國食品和藥物管理局(FDA)於2018年9月6日發布關於「制定醫療器械在上市前核准(PMA)、低風險創新器材(De Novo)分類和人道用途器材免除(HDE)的利益-風險決策之不確定性考量指引草案。」 為滿足FDA促進公共健康的使命,醫療器械上市前核准(PMA)通常涉及較高的不確定性,因此本指引是適當的解決利益風險的判定以支持FDA的決策。包含考量患病群願意接受醫療器械帶來的益處及風險之更多不確定性,特別是沒有可接受的替代治療方案時。 根據指引草案,FDA依據具體情況,判定其利益-風險的適當程度之不確定性,包括: (1) 醫療器械可能帶來好處程度。 (2) 醫療器械存在的風險程度。 (3) 關於替代治療或診斷的利益-風險之不確定程度。 (4) 如果可能,需瞭解患者對醫療器械可能帶來的益處和風險之不確定性觀點。 (5) 公共衛生需求的程度。 (6) 依據臨床證據可支持上市前之可行性。 (7) 能夠減少或解決醫療器械的上市後利益-風險留下之不確定性。 (8) 上市後緩解措施的有效性。 (9) 建立決策類型。(如上市前核准(PMA)和人道用途器材免除(HDE)的核准標準不同。) (10) 對於早期患者訪問醫療器械的可能帶來的益處。 本指引草案中,FDA基於考量有關醫療器械臨床/非臨床訊息之利益風險,需與FDA的規範、監管機關和要求要有一致性。
歐盟法院被遺忘權2017年最新判決:Camera di Commercio di Lecce v. Manni案歐盟法院在2017年3月9日針對其於同日所公布的判決發布新聞稿,指出該院認定公司資料登記中的個人資料於此案中並無被遺忘權之適用。 該案件起源於2007年義大利的Manni先生對雷契商業登記處(Lecce Chamber of Commerce)所提之爭訟。在由雷契法院(Tribunal di Lecce)受理的案件中,Manni先生主張其所承接觀光性建案乃因商業登記處之資料清楚顯示其於1992年間擔任負責人的公司倒閉之影響而無法成交。 在一審判決中,雷契地方法院命雷契商業登記處將Manni先生與其之前所任職公司後來進入清算程序之聯結匿名化,並應對其為損害賠償。嗣後,雷契商業登記處向義大利最高法院(Corte suprema di cassazione)提起上訴,該院則決定聲請歐盟法院的先訴裁定(preliminary uuling)程序。 歐盟法院的判決指出:公司登記資料的公開性質,乃基於確保公司間以及與第三人間之法律安定性,特別是對於有意願入股上市公司或股份有限公司的第三人之利益。考量本案所涉法律權利之範圍,以及這些權利限制資料存取的時間在會員國各有所異,歐盟法院認為本案所涉之事實並不足以正當化系爭資料近用之限制,但其亦不排除未來有不同的可能,但須個案判斷。
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。
美國財政部發布「非銀行金融、金融科技和創新」之金融科技創新報告美國財政部於今(2018)年7月31日發布一份重要報告,呼籲對金融科技領域的創新要採取更靈活,更有利的監管方法。這份報告主題為「非銀行金融、金融科技和創新」,其內容提及加密貨幣和分散式帳本技術(Distributed Ledger Technologies,DLT),並指出該些技術正由金融穩定監督委員會(Financial Stability Oversight Council)的工作組來主導進行跨部門的研究。整體來說,該報告表明美國政府大力推動新興金融技術的發展,並使現有的監管框架現代化,主張更加精簡和適當的監督,以消除發展過程中的障礙。並對於可能阻礙金融科技發展的法規,提出合理化建議,包括協調各州間加密貨幣交易的資金移轉立法。 美國財政部提及金融服務業正在開發的一系列DLT應用程式,其優勢仍有高度不確定性,因而進一步倡導使用監理沙盒,並鼓勵創建實驗室、工作組、創新辦公室,和其他讓行業參與者直接接觸監管機構的管道。監管機構和創新者之間的共生關係,是支持美國經濟和保持全球競爭力所必需的。該報告最後結論提到美國必須與新興技術並肩一起進步,要以不限制創新的方式來適當調整原有的監管策略。美國監管機構必須比過去更加靈活地履行職責,不能給創新的發展帶來不必要的阻礙。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」