原預計於2017年3月2日生效實行的美國聯邦通訊委員會(Federal Communication Commission,FCC)的寬頻客戶隱私規定(Broadband Consumer Privacy Rules),委員會於2017年3月1日宣布暫停該規範效力,並與聯邦貿易委員會(Federal Trade Commission,FTC)發表共同聲明。
為保障資料安全(data security),聯邦通訊委員會於2016年10月27日,以寬頻網路服務提供者(broadband Internet Service Providers,ISPs)及其他電信營運商為規範對象,要求須給予客戶有更多選擇去決定自身資料如何被分享和使用,除將ISP所蒐集得使用及分享的資料分為三類,建立客戶同意要件,尚設立新的提醒要件及保密性違反之通知等。該新的隱私規範試圖與聯邦貿易委員會的規範做區隔,除管制對象不同,管制架構上,聯邦貿易委員會要求業者在蒐集及利用個人資訊時,須符合公平資訊實施原則(Fair Information Practice Principles,FIPPs)之準則(guidelines):通知(notice)、選擇(choice)、讀取(access)、安全(security)。
通過之際產生的爭議,包含聯邦通訊委員會有無管制權限,及實行後可能與聯邦貿易委員會管制架構並行而造成疊床架屋、混淆大眾等的問題;此外,聯邦通訊委員會收到眾多請願,要求重新考慮該規範之實行。請願理由在於該規範之實行將會造成寬頻網路服務提供者及其他電信營運商為了要遵循規範將承受巨大的成本與負擔,並且這些成本與負擔與公眾利益相違背,將會造成不可回復的損害。
在接受請願討論後,聯邦貿易委員會做出暫停實施的決定,認為有關保護資料安全的規範要件需要重新思考,其理由在於:(1)消費者若受到兩種不同的隱私管制方式,會破壞消費者對於線上隱私安全一致性的期待;(2)不應使寬頻網路服務提供者及其他電信營運商遭受重大且不必要的遵循成本。
聯邦通訊委員會也與聯邦貿易委員會共同發表聲明,其聲明提及:聯邦通訊委員會與聯邦貿易委員會皆有責保護美國消費者的線上隱私,然而最好的管制方法,應該是透過一個全面性且一致性的架構。資訊隱私之保護不應當有因管制對象不同而有差別性,況且其中差異僅有專業人士才能辨別出,就消費者保護來說,並行兩道不同管制只會造成混淆,毫無益處。這也是為何當聯邦通訊委員會片面剝奪聯邦貿易委員會的管制權限而引發批評聲浪。對於寬頻提供者應保護隱私與資料安全之要求,應回歸至聯邦貿易委員會,由於國家對網際網路空間的管制,上網行為應該要適用一樣的規則,並且受到同樣的專責機關管制。除此之外,聯邦通訊委員會與聯邦貿易委員將共同合作致力於協調對寬頻提供者的隱私規範,該規範將會同所有與數位經濟相關的公司遵循的標準。線上世界技術中立(technology-neutral)的隱私框架之一致性,方能對消費者帶來最佳利益。
本次聯邦通訊委員會迅速暫停實施的隱私規範,顯現出美國對於保障隱私管制的重視性極高,美國針對網路生態中的不同公司,寬頻網路服務提供者及其他電信營運商,例如Comcast、Verizon、AT&T等;網站或其他邊緣服務商(edge service),例如Google、Facebook、Amazon等,將會有何種一致性的資料安全規範,值得持續關注。
美國聯邦地方法院加州北區法院於2009年8月11日判決禁止REALNetworks公司致力或便利於製造、進口、供公眾使用、為販賣之要約或販賣以存取、複製及再散佈等他法規避CSS之保護或受著作權保護之DVD內容之軟體產品,這些產品如已知的RealDVD,或Vegas、Facet或其他名稱之產品,或有近似功能的軟體或其他產品、服務或裝置、設備或其零件。理由在於RealDVD軟體違反了數位千禧年著作權法案(Digital Millennium Copyright Act of 1998,DMCA)禁止規避電腦加密技術之規定。DVD若被CSS(Content Scramble System)鎖碼,則DVD播放者必須取得授權方能播放此光碟片,這些防止技術就是為了避免被複製而設計的。因為RealDVD是一種從含有著作權的DVD製造了一個永久的複製品的軟體技術,而這無法置外於數位千禧年著作權法案所賦予的義務,即使從個人合理使用的條文詮釋,亦無法認為是合法的。 這件案子是美國迪士尼、Sony、派拉蒙、二十世紀福斯、NBC、華納兄弟、哥倫比亞等好萊塢主要電影公司以及DVD複製控制協會(DVD copy control Association,DVD CCA) 於2008年對於REALNetworks公司銷售RealDVD軟體之行為提起訴訟,指控其行為違法法令。 而兩日後(2009年8月13日),於DVD複製控制協會(DVD CCA)訴KALEIDESCAPE公司上訴案中,加州聯邦上訴法院又判決KALEIDESCAPE公司販售DVD複製軟體(Kaleidescape system)違反數位千禧年著作權法案。 此兩個判決對於好萊塢電影工業無疑是一大勝利,但對於DVD複製軟體的科技發展卻是一項打擊。另外在判決中法官也強調這樣的判決決定,仍然保留了個人合理使用的合法空間。
歐盟檢視「2005-2009年歐洲奈米科學與技術行動計畫」之執行成效歐盟執委會(European Commission)於今年9月初公佈了「『2005-2009年歐洲奈米科學與技術行動計畫』(Nanosciences and Nanotechnologies: An action plan for Europe 2005-2009)之期中執行報告」,文中總結了於2005至2007年有關該計劃重點領域執行之相關的活動及進程。 在該報告中,歐盟執委會也在報告中指出歐洲在奈米科學與技術發展上的一些弱點,包括:主要跨領域基礎設施的缺乏、私資金在奈米科技產業研發創新上的短缺(儘管「歐洲技術平台」積極鼓勵私人參與奈米科學與技術的投資,但目前私資金仍只佔全部資金之55%)、以及隨著歐盟會員國投資的增加,重複研究及分裂研究的風險也隨之增加。此外,奈米科技跨領域及創新的本質對於既有之研究、教育、專利授予及規範等方法也形成不少的挑戰。 另一方面,報告也指出歐洲在一些重點區域研究的整合相當成功;例如,在中小企業參與第六期研發綱領計畫(FP6) 中之奈米科學與技術計畫的部份,即由2003-2004年的18%成長至2006年的37%。此外,歐盟執委會也有計劃地來支持技術商業化的發展,像是競爭及創新計畫(Competitiveness and Innovation Programme)、財務風險分攤機制(Risk Sharing Financial Facility)、以及接收利用奈米技術為基礎之控制管路(pilot lines);未來,歐盟執委會計畫對負責任奈米科學與技術之研究採取自願性的行為規範。 下一份奈米科學與技術行動計畫之執行報告預計在2009年底公佈。
美國最高法院肯定電玩同樣受到憲法第一修正案言論自由之保護美國最高法院日前針對Brown v. EMA & ESA(即之前的Schwartzenegger v. EMA)一案作出決定,確認加州政府於2005年制定的一項與禁止販賣暴力電玩(violent video games)有關的法律,係違反聯邦憲法第一修正案而無效。 該加州法律係在阿諾史瓦辛格(Arnold Alois Schwarzenegger)擔任加州州長時通過。根據該法規定,禁止販售或出租暴力電玩給未滿18歲的未成年人,且要求暴力電玩應在包裝盒上加註除現行ESRB分級標誌以外的特別標誌,故有侵害憲法第一修正案所保障的言論自由之虞。本案第一審、第二審法院均認定加州「禁止暴力電玩」法案係屬違憲。 而最高法院日前於6月27日以7比2的票數判決,肯定下級審的見解。最高法院認為,電玩(video games)係透過角色、對話、情節和音樂等媒體,傳達其所欲表達的概念,就如同其他呈現言論的方式(如書本、戲劇、電影),皆應受到憲法言論表達自由原則之保護。 因此,對同樣受到憲法保障的遊戲內容表達,只有在有重大(值得保護)的公益須維護時,才能對其加以限制;同時,限制手段亦須通過最嚴格的審查標準(stringent strict scrutiny test)。最高法院認為,本案中加州政府並無法證明有重大(值得保護)的公益存在,且以法律禁止販賣的手段也無法通過審查標準。 如同美國娛樂軟體協會(ESA)CEO Michael D. Gallagher所說,政府不應採取立法禁止的方式,限制遊戲內容的表達自由;反之,美國電玩產業一直以來都遵守一套自願性的分級制度(Entertainment Software Rating Board rating system),藉以提供消費者有關遊戲內容的資訊。這套分級制度已足以協助家長從包裝盒上辨認出遊戲內容,確保未成年人不接觸不適宜的遊戲。 判決出爐後,產業界紛紛表示這是對遊戲產業的一大勝利。本案也證明,即使面臨日新月異科技發展的挑戰,憲法所保障的言論自由表達原則,同樣適用在新興科技的表現媒介。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。