美國白宮為避免由聯邦補助的生物科技研究案,因研究涉及具危險性生物,而不經意製造出生化武器,繼此於2014年9月24日由國家衛生研究院(National Institutes of Health,NIH)和白宮科技政策辦公室(White House Office of Science and Technology)共同提出新規範,即「美國政府對生物科學雙重用途研究與考量的機構監督政策」(United States Government Policy for Institutional Oversight of Life Sciences Dual Use Research of Concern),旨在加強由聯邦預算補助的生物雙重用途研究(Dual Use of Research)安全性。
前述生物科技研究中的生物雙重用途研究,意指以增進公共衛生、國家安全、農業、環境等為主旨的生命科學研究之外,尚有其他具殺傷力或致命性的合法研究,例如合成病毒、除草劑等。早於2013年,美國白宮即已開始實施「美國政府對生物科學雙重用途研究與考量的監督政策」(United States Government Policy for Oversight of Life Sciences Dual Use Research of Concern),惟本次另以機構為主要規範對象。而作成新規範之重點分述為三如下:
1.原先以補助單位(通常為國家衛生研究院),為具危險性生物研究案為監督、責成單位,現將該監督責任歸屬移轉至取得相關補助的科學家、大學或研究機構。
2.從事相關具危險性生物研究之科學家,必須通報其所屬機構,並且須召開審查委員會評估相關風險,亦須通知聯邦層級的補助單位。此外,該科學家與其機構必須提交一份風險防範之計畫書,例如建立生物安全等級(biosafety rating)較高的實驗室等。
3.違反相關規範之受補助對象,將面臨中止、限制或終止補助之處分,甚至失去申請未來聯邦補助單位所補助一切與生命科學相關研究補助的機會。
英國上議院人工智慧專責委員會(Select Committee on Artificial Intelligence)2018年4月18日公開「AI在英國:準備、意願與可能性?(AI in the UK: ready, willing and able?)」報告,針對AI可能產生的影響與議題提出政策建議。 委員會建議為避免AI的系統與應用上出現偏頗,應注重大量資訊蒐集之方式;無論是企業或學術界,皆應於人民隱私獲得保障之情況下方有合理近用數據資訊的權利。因此為建立保護框架與相關機制,其呼籲政府應主動檢視潛在英國中大型科技公司壟斷數據之可能性;為使AI的發展具有可理解性和避免產生偏見,政府應提供誘因發展審查AI領域中資訊應用之方法,並鼓勵增加AI人才訓練與招募的多元性。 再者,為促進AI應用之意識與了解,委員會建議產業應建立機制,知會消費者其應用AI做出敏感決策的時機。為因應AI對就業市場之衝擊,建議利用如國家再訓練方案發展再訓練之計畫,並於早期教育中即加入AI教育;並促進公部門AI之發展與布建,特別於健康照顧應用層面。另外,針對AI失靈可能性,應釐清目前法律領域是否足以因應其失靈所造成之損害,並應提供資金進行更進一步之研究,特別於網路安全風險之面向。 本報告並期待建立AI共通之倫理原則,為未來AI相關管制奠定初步基礎與框架。
“.cn”網域名稱爭議處理規則修正中國網路資訊中心( Chinese Internet Information Network, CINIC )日前修改其網域名稱爭議處理規則,嘗試在商標持有人與網域名稱註冊人權益間取得一平衡。新修正的規則已於今( 2006 )年 3 月 17 日正式生效,將使商標持有人更難取得相同或近似的網域名稱。 新修正規則將不再適用已註冊網域名稱超過 2 年的域名,對於此類案件爭端解決的途徑將僅能循法院管道處理。此將導致商標持有人將定期注意搶註網域者(俗稱網路蟑螂)之行為,並對註冊不到 2 年之域名提起申訴。 先前的網域名稱爭議處理規則將註冊人「註冊域名乃為求移轉並取得不當利益」的行為視為惡意,在是該案件中 CINIC 會將該域名移轉與申訴人。而新修正的規則即要求申訴人必須證明註冊人已移轉該域名與申訴人或申訴人之競爭者。 新修正規則亦要求註冊人若能證明以下事項,則得主張其註冊有正當權利: •註冊人已基於善意使用該域名提供商品或服務; •該域名已透過使用而使社會大眾對其產生一定信賴;或 •在無企圖混淆消費者以獲取商業利益的前提下,基於商業或非商業理由合法使用。
英國資訊專員辦公室對連鎖藥局違反GDPR存放敏感個資作成裁罰首例英國資訊專員辦公室(Information Commissioner's Office, ICO)於2019年12月20日發布首宗依據歐盟一般資料保護規則(General Data Protection Regulation, GDPR)之裁罰。 本案源於英國藥物及保健產品管理局(Medicines and Healthcare products Regulatory Agency, MHRA)接獲投訴前往倫敦當地一家名為Doorstep Dispensaree Ltd之連鎖藥局進行藥品違規調查,卻意外發現其後院存放大量敏感個資文件,約五十萬個文件檔案皆未做任何資料檔案保護措施,上面更記載名字、地址、出生日期、NHS號碼、醫療資料及處方籤等患者之個人資料,旋即通報英國資訊專員辦公室展開調查。最終英國資訊專員辦公室以該藥局違反歐盟一般資料保護規則(General Data Protection Regulation, GDPR)第5條1項第f款、第24條第1項及第32條,裁罰275,000英鎊。其裁罰理由如下: 一、隱私政策並不符合要求,如未述明蒐集個人資料之類別,未訂定個資保存期限,當事人告知聲明不完備,無當事人權利行使等。 二、無適當安全維護措施 三、涉及敏感性個資,違法情狀嚴重 四、未積極配合調查 五、影響層面甚深,導致該藥局配合之上百家療養院,近千名當事人個資受損害。 此為英國資訊專員辦公室首宗依據歐盟一般資料保護規則確定裁罰之案例且涉及敏感性個資,有其指標性。除此之外,英國航空與萬豪酒店之個資外洩案亦欲依GDPR進行裁罰,實值持續關注後續發展。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。