歐盟執委會(European Commission)在2014年5月28日提出源安全政策,此係歐洲針對各個會員國的能源依賴程度進行調查後所提出之政策。
歐洲多數國家對於能源需求有超過50%仰賴進口,且近來烏克蘭與俄羅斯政治紛爭引起許多的關注,尤其在天然氣使用部分,多半從俄羅斯透過管線運送方式進口,因此可能產生的能源短缺危機不容忽視。為此,歐盟再次針對能源使用的安全性問題提出政策方針。
政策訂定之目標可分為八項,分別為短期、中期及長期三個階段,每階段皆應採取具體執行措施,以因應能源安全問題:
其中,具體的措施包括執委會利用能源安全壓力測試(energy security stress test)模擬仿冬天天然氣供應短缺的問題,採用逆流(reverse flows)輸送、使用化石燃料替代能源、增加可提供出口能源的國家,不再侷限俄羅斯、阿爾及利亞、利比亞以及挪威國家等等。
此項政策後續的相關計畫內容已於6月26日及27日由歐盟由各國代表出席歐盟執委會會議討論,其是否能解決歐洲能源短缺問題,作為其他國家之參考借鏡,值得觀察。
陸軍上尉連長孫吉祥殉職後,未婚妻李幸育終於順利取精,不過能否接受人工受孕則仍有變數。由於 目前人工生殖法草案尚未過關,法律上尚無明確規範,且由於此種案件勢將引發若干後續問題,情理法難以兼顧,故衛生署國民健康局長吳浚明表示,目前擬採取專案審查方式,於週一﹙ 9月13日﹚邀集律師、醫學倫理、婦女團體、不孕症代表等專家,共同討論是否同意李幸育進行人工受孕。 在正式同意人工受孕之前,如果有醫師私下協助進行,衛生署將得以「其醫療行為違反醫學倫理」為由﹙醫師法第二十五條﹚,依同法二十五條之一予以懲戒。至於衛生署長侯勝茂先前表示,要檢討人工生殖法草案之具體內容,放寬「不孕夫妻而且雙方健在」的限制,吳浚明則坦承,此項指示的難度很高,因為目前連草案都還在等待立法院審查,如果等草案過了再行修正,退案修正一來一往間,將耗費相當時日,更何況死後取精可否進行人工生殖之情形更屬複雜,預期難在短期之間獲得定論。
何謂「國立研究開發法人」?國立研究開發法人為日本法制度下三種獨立行政法人類型的其中之一(其餘兩種為中期目標管理法人、與行政執行法人),任務乃是獨立於國家,發揮一定程度之自主性與自律性,從事在國民生活或社會經濟安定性等公益目的上所必要,但不須由國家為主體來執行的科學技術之實驗、研究與開發,並且這些科技研發業務,係基於具備一定中長期政策目標之計畫而進行,目的在於最大限度地確保得以提升國家科技水準、同時攸關經濟健全發展及其他公益的研發成果,並被期待產出得參與國際競爭的世界頂尖水準之新創科技,作為國家戰略的一環,同時專注於基礎科學與國家核心技術的研發。但在國立研究開發法人中,其所屬職員的身分並非公務員。 現在日本共有將近30個獨立研究開發法人,如日本醫療研究開發機構、森林研究‧整備機構‧新能源‧產業技術總合開發機構(NEDO)、國立環境研究所等。
德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。
美國聯邦貿易委員會與臉書就隱私議題達成和解臉書(Facebook)於今年11月底與美國聯邦貿易委員會(FTC)就2009年的隱私權控訴案達成和解。該控訴案指出「臉書欺騙消費者其在臉書上的資訊可以保持隱私,然而卻一再任這些資訊被公開分享與使用」。舉例而言,在2009年12月,臉書改版時未預先通知使用者進行設定,導致使用者的朋友名單被公開。除此之外,擁有全球8億用戶的臉書,允許廣告商在臉書使用者點選廣告時,蒐集其個人身分資訊。另外,縱使臉書的使用者將帳戶刪除,其照片等等影音資料仍能夠被該公司讀取。臉書的這些行為被聯邦貿易委員會指出,這是不公正的詐欺行為(unfair and deceptive)。 聯邦貿易委員會最終與臉書達成和解,未施加任何罰緩,也未指控臉書蓄意地違反任何法規。依照和解內容,臉書必須要在接下來的二十年內,每兩年一次受獨立公正第三人稽核其隱私保護措施。但假設臉書在未來違反了這些和解條款,臉書將被處以每行為每日16,000美元的罰緩。推特(Twitter)以及谷歌(Google)近來也與聯邦貿易委員會達成了類似的協議。 聯邦貿易委員會要求臉書必須要取得使用者「確切的同意」才可以變更其本身的隱私使用設定。比如說,假設使用者設定某些內容只能供「朋友」讀取,臉書就不能夠把這些內容提供給「朋友」以外的人,除非取得使用者的同意。