為執行「數位議程2014-2017」(行動領域3「創意政府」),德國內閣於9月17日分別公布出「數位行政機關 2020」與「八大工業國(G8)開放資料宣言」行動計畫。德國聯邦內政部部長de Maizère指出,此計畫的執行是為了讓公民享有行政機關更佳簡便、人性化、不受時間地點限制的服務,並且顧及到個人資安保障。
「數位行政機關 2020」旨於將德國數位政府(e-Government)法律在聯邦機關體制裏統一執行。在執行的做為中其中特別值得注意的是,以後聯邦形政體系使用的紙本檔案將全面轉換為數位版本。行政業務處理過程也將數位化、聯網化及電子化。此外、政府採購案流程也將數位化。這可幫助行政機關及企業節省行政資源。
為讓此計畫順利的執行,政府資料透明化的提升也變的格外重要。也因此,內政部長de Maizère公布針對「八大工業國(G8)簽署開放資料宣言」推出行動計畫。該計畫將政府機關的行政資料提供出來讓公民參考。依照該計畫,再明2015年4月底前,各聯邦政府機關將需提供兩個數據集(Datensatz),透過德國政府公開資料網路平台Govdata (https://govdata.de/) 公布出來。可公布出來之數據含括警察局統計之犯罪紀錄、政府建設合作案件、社會福利預算到德國國家數位圖書館資料及所有德國聯邦教育與研究部(Bundesministerium für Bildung und Forschung)的公開資料。
美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
美國加州通過綠色化學法規由於完善控管機制迄今仍付之闕如,而市面上諸多含有危險化學物質的產品,尚無法立即要求廠商將之下架或提出解決方案,因此引起消費大眾、學界人士及公共健康倡議團體對於消費安全之關切;美國加州為有別於僅針對危險化學物質逐項管理的一般法令,轉而採取整體規範之包裹立法方式,於2008年9月底通過AB 1879與SB 509兩項綠色化學法規,增訂於「健康與安全法典(Health and Safety Code)」,促使商品在設計階段減少毒性物質之接觸。 根據AB 1879法令,由加州環保署(California Environmental Protection Agency) 所管轄之毒性物質控制部門(Department of Toxic Substances Control),現行除具備管理危險材料之儲存、使用與廢棄等法定職責外,另新增計畫如下: (1) 應於2011年1月1日前修改法規,優先針對引發關切的危險化學物質進行生命週期評估,並將評估結果遞交加州環境政策議會(California Environmental Policy Council);此外,毒性物質控制部門應研發潛在替代品,研擬減低或避免化學物質暴露之方法。 (2) 於2009年7月1日前成立綠絲帶科學小組(Green Ribbon Science Panel),用以管理奈米科技、風險分析、公眾健康等十五項與危險性化學物質相關之題材,並為日後政策修訂提供具科學基礎之建議。 (3) 除非另有法規限制,應要求業界呈報管理化學物質之詳細資料,公開作為民眾參考之用;如涉及商業機密,應有程序上之保障。 再者,SB 509法令要求環境健康風險評估辦公室(Office of Environmental Health Hazard Assessment)彙整危險化學物質之特性,並由毒性物質控制部門建立線上資料庫,使民眾便於查詢危險化學物質之相關資訊。 綜上所述,綠色化學法規的訂立,係回應消費大眾對於市售產品之疑慮,因而植基於科學界與現實生活,著重危險化學物質運用及暴露時所為之風險評估,並期於2011年前得以有效掌握化學物質,進而維持勞動環境安全、減少處理毒性廢棄物之成本,達成保護生態與民眾健康之目標。
微軟將SkyDrive改名為OneDrive:侵犯他人商標英國法庭於去年(2013)6月裁判美國微軟公司(以下簡稱微軟)的「SkyDrive」商標侵犯了英國新聞集團(News Corporation)旗下英國付費電視供應商BSkyB(英國天空廣播公司)的「SkyDrive」商標權。據悉,新聞集團早在2011年就對微軟發起過訴訟,並稱旗下BSkyB早已在Sky品牌下提供著移動應用和線上流媒體服務。儘管微軟認為SkyDrive雲存儲服務並不是那麼容易會和Sky串流媒體視頻服務相混淆,但英國法庭並不這樣認為,因此裁定微軟侵犯BSkyB之商標權。 判決出來後,微軟原本揚言要上訴,但兩家公司卻於2013年7月31號達成和解,微軟還是同意將其雲儲存服務改名。BSkyB稱,微軟不會再對法庭裁定結果上訴,同時,他們還將允許微軟繼續使用SkyDrive商標一段時間,“以保證微軟有個合理的過渡期讓新品牌名與舊品牌名進行交替。” 微軟發言人也向媒體確認了這一消息:“我們很高興已經解決了這次商標糾紛,我們將繼續為我們的億萬使用者竭誠服務,提供最好的雲端檔案管理服務。”除此之外,兩家公司都沒有對協議中有關財務面的和解條件(financial terms)以及其他細節進行任何透露。 在兩個公司達成和解後,過渡期間內微軟開始進行了更名的計畫,微軟並於美國時間2014年1月27日,透過網誌宣布易名的決定。微軟表示,現有的SkyDrive及SkyDrive Pro服務會一直繼續運作;當OneDrive及OneDrive for Business推出後,用戶的所有資料將會全部自動同步更新。
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。