微軟成為crowdsourcing(集結式資訊來源)服務的第一會員,其服務用於對抗專利流氓(patent trolls)所提出昂貴的訴訟,挑戰將訴訟中所使用的軟體專利使之無效。
Litigation Avoidance是由全球線上社群100萬名科學家及技術人員所組成的Article One Partners所建立的一種付費服務。該組織採用crowdsourcing,其為透過網際網路所採用的一種社交媒體工具,藉由找出前案或先前揭露資料中證明專利無效之證據。而Article One所取得的利潤是由使用crowdsourcing資訊的企業而來的,但並未對外揭露收費的價格。
根據Article One指出,Litigation Avoidance主要針對的目標是專利流氓,其為購買大量專利,透過所買的專利向其他企業提出訴訟,進而要求權利金或授權金。
受到專利流氓提出訴訟的微軟指出,Litigation Avoidance服務將是應訴前調查專利品質的另一種工具。微軟首要專利律師Bart Eppenauer說明,”使用Litigation Avoidance服務其目的為降低風險及降低潛在的訴訟成本”。
Article One試圖解決問題之一,為crowdsourcing技術可於數周內得到專利評估結果,可取代需花費數月或數年始得產生結果的美國專利商標局低效能的專利審查系統。
日本內閣府網路安全戰略本部(サイバーセキュリティ戦略本部)於2017年7月13日第14次會議中提出對2020年後網路安全相關戰略案之回顧(2020年及びその後を見据えたサイバーセキュリティの在り方(案)-サイバーセキュリティ戦略中間レビュー-),針對網路攻擊嚴重程度,訂立網路安全判斷基準(下稱本基準)草案。對於現代網路攻擊造成之嚴重程度、資訊之重要程度、影響範圍等情狀,為使相關機關可以做出適當之處理,進而可以迅速採取相應之行動,特制訂強化處理網路攻擊判斷基準草案。其後將陸續與相關專家委員討論,將於2017年年底發布相關政策。 本基準設置目的:為了於事故發生時,具有視覺上立即判斷標準,以有助於事故相關主體間溝通與理解,並可以做為政府在面對網路侵害時判斷之基準,成為相關事件資訊共享之體制與方法之基準。 本基準以侵害程度由低至高,分為第0級至第5級。第0級(無)為無侵害,乃對國民生活無影響之可能性;第1級(低)為對國民生活影響之可能性低;第2級(中)為對國民生活有影響之可能性;第3級(高)為明顯的對國民生活影響,並具高可能性;第4級(重大)為顯著的對國民生活影響,並具高可能性;第5級(危機)為對國民生活廣泛顯著的影響,並具有急迫性。除了對國民及社會影響,另外在相關系統(システム)評估上,在緊急狀況時,判斷對重要關鍵基礎設施之安全性、持續性之影響時,基準在第0級至第4級;平常時期,判斷對關鍵基礎設施之影響,只利用第0級至第3級。 本次報告及相關政策將陸續在一年內施行,日本透過內閣府網路安全戰略本部及總務省、經濟產業省與相關機構及單位之共同合作,按照統一之標準採取措施,並依據資訊系統所收集和管理之資料作出適當的監控及觀測,藉由構建之資訊共享系統,可以防止網絡攻擊造成重大的損失,並防止侵害持續蔓延及擴大,同時也將為2020年東京奧運會之資訊安全做準備。我國行政院國家資通安全會報目前公布了「國家資通安全通報應變作業綱要」,而日本以國民生活之影響程度標準列成0至5等級,其區分較為精細,且有區分平時基準及非常時期基準等,日本之相關標準可作為綱要修正時之參考。
英國公布合成生物學公眾對話報告,以避免早期爭議的產生今(2010)年5月,美國克雷格文特爾研究所宣布,成功完成首個由電腦設計之人造基因組控制,並具有自我繁殖功能的合成細胞,研究人員將其取名為辛西亞(Synthia),並發表於科學雜誌,此舉意味生物科技的發展,已經從生命複製階段步入生命創造階段。此次合成細胞的成功,引發先進國家政府方面的對經濟利益、管理及社會法制影響等方面的重視。美國總統歐巴馬便敦促生物倫理委員會對此發展進行密切觀察,評估此研究將之影響、利益和風險。 英國對於合成生物學發展的規範議題也十分關心,該國2009年開啟有關合成生物學的公眾對話(public dialogue),並於今年6月完成並公布報告。獲得的結論如下: 一、肯定合成生物學所帶來的機會: 英國民眾普遍認為合成生物學的應用將會帶來許多重要的機會,可協助解決當前社會所面臨的重大挑戰,例如氣候變遷、能源安全與重大疾病等。 二、關心合成生物學發展的不確定性: 由於合成生物學的發展充滿著不確定性,故當長期的負面影響尚未可知時,有些民眾反而因發展過於快速而覺得到沒有確定感。 三、期待國際規範形成: 英國民眾認為希望能有國際性的合成生物學規範與管理措施,尤其應針對合成生命物質在未受到管制而釋出於環境之生物安全議題,猶應有國際性的管理規範。 四、衡量科研人員動機: 英國民眾擔心,研究者好奇心的驅使,會使合成生物學發展過於快速,故應衡量其研究所帶來的廣泛影響。 五、強調科研人員之責任 負責資助的研究委員會應有清楚角色,促使科學家在此新興科技領域研究中,培養思考科學家責任之能力。 此次對話結果將會納入英國對合成生物學研究補助的法規政策,成為決定補助方式、項目與範圍的重要參考依據。這樣的作法是考量到,希望使合成生物學在健全的管理與法規下持續發展,預先減低過往生物科技發展導致民眾疑慮而致延滯發展的可能性,也更能將政府科研資助有效地投入有利於國家整體發展的領域中。
英國推動「公共緊急警報:行動通訊預警試驗」實證服務為試驗導入智慧防救災各項新興技術與機制,英國國民緊急事務秘書處 (Civil Contingencies Secretariat, CCS) 於2013年秋天分別對北約克郡 (North Yorkshire)、格拉斯哥 (Glasgow) 和薩福克郡 (Suffolk) 三地區進行共三次的「公共緊急警報:行動通訊預警試驗」(Public emergency alerts: mobile alerting trial)。由於英國已有92%民眾具有行動電話,並以隨時得接收訊息為出發點,進行有別於傳統預警系統之公共緊急預警系統試驗。此試驗由國民緊急事務秘書處與O2、Vodafone和EE三間行動網路業者 (mobile network operators) 和地方政府應變單位合作,雖係以行動電話為試驗主軸,但試驗重點則以政府或地方政府應變單位「不知道」民眾個人電話,亦不要求民眾簽署才能取得此次試驗訊息為主。 此三次試驗手段有二,包括「小型區域廣播服務」 (cell Broadcast service, CBS),係以單點對多點發送緊急簡訊,以及「以地區為基礎的簡訊」 (location-based SMS messaging),以群組方式發送簡訊至指定地區用戶,二種發佈緊急訊息的方法為試驗。 北約克郡 (North Yorkshire)主要與EE進行發送緊急水災警報系統,對於廣播訊息發送的時間或調整時間長短以供傳送「泡沫警報」(表訊息多寡)到地域寬廣或數個地區而言,是有效的手段。格拉斯哥 (Glasgow)地區為蘇格蘭最大城市,與O2業者進行最大型的試驗,發送數千緊急訊息給民眾。而薩福克郡(Suffolk)則是由於該區不僅於市中心具兩個火車站,遊客也眾多,因此試驗場域以住商混合住宅區及處於該區的人民為主。除小型區域廣播服務和以地區為基礎的簡訊外,薩福克郡也與社交網路Twitter合作,共傳送三種訊息試驗。 透過上述試驗,公共緊急警報:行動通訊預警試驗計畫報告也提出針對隱私與對於電信服務業者於災害發生當下之通訊服務義務未來應制訂相關規範,以及應統一發送訊息之通訊警報協定標準等建議。
德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。