為勾勒人類未來生活型態,英國將在新堡( New Castle )投入約新台幣 150 億元建立一科學城,預定五年內整合化學、奈米、微機電及醫療技術整合。這座科學城是一座整合科學及產業技術的場所,由業界及政府共同支持,科學城內將成立三大研究機構,分別進行幹細胞研究、老年人健康、分子工程,及環境能源的改善。
英國皇家工程院院士雷蒙奧立佛( Raymond Oliver F.R.Eng )是這座科學城的主要規劃人,他指出,人類生活在下一個 20 年將出現四項結構性的現象:一是人口老化,二是個人化產品的普及,三是智慧型生活空間的出現,四是再生能源出現。面對這四大現象的普及,化工業者可以找到兩個發展方向,一是利用化學來提高醫療生活品質;二是利用化學來創造更自然的智慧型生活空間。
以醫療生活品質而言,化學可以進一步和幹細胞研究結合,並透過奈米技術發展出奈米級醫療電子產品,包括影像攝影取代藥物的人體臨床實驗,或是透過紅外線體外照射,讓硫化鎘等化學藥物能在體內直接殺死癌細胞 ; 在奈米材料方面,雷蒙指出,已有廠商研究出適合老人駕駛的汽車,這類汽車從空調、氣味,到生理資訊的偵測,都能配合老人較易疲勞的體質去設計。
電子遊戲龍頭ZeniMax於2014年起訴虛擬實境公司Oculus VR,稱Oculus創辦人Palmer Luckey為改善初代虛擬實境體驗機「Rift」提供原型予在ZeniMax任職的John Carmack,嗣Carmack在該機器增加ZeniMax所有之虛擬實境專用關鍵軟體,ZeniMax就Luckey取得該公司軟體之內容與Luckey簽立保密協定。其後Luckey為募集Oculus資金,未經ZeniMax授權及參與,開始展示含有ZeniMax專有軟體之「Rift」,最後Facebook收購Oculus。 ZeniMax以Oculus、Luckey、Brendan Iribe(Oculus另一創辦人)、Carmack為被告,主張其等盜用營業秘密、侵害著作權、違反保密協定、不公平競爭、不當得利、商標侵權(包括未經許可使用以及錯誤指示商品來源),並列Facebook為共同被告主張其於收購Oculus即知情,連帶給付20億美元之損害賠償及40億美元之懲罰性賠償。本訴訟於2017年2月1日經陪審團認定Oculus違反保密協定、侵害著作權、錯誤指示商品來源侵害商標等共計賠償3億美元,Luckey及Iribe因錯誤指示侵害商標共計賠償2億美元。 以本案來看,Oculus及其創辦人最主要是未經ZeniMax同意而公開使用ZeniMax的程式碼且宣稱為其公司產出,關於這個部分公司未來在有運用他人公司技術之情形宜透過協商,以共同發表之方式避免侵害創作公司之權利;另創作公司雖未公開技術,然可透過保密協定使營業秘密獲得完善的保障;至於Facebook的部分更凸顯公司於併購前尤應強化盡職查核(Due Diligence),以免訟累。 本文同步刊登於TIPS網站(https://www.tips.org.tw)」
美國有線電視法節目載送規則實務現況簡介 歐盟公布「朝向現代化著作權架構行動計畫」,研議推動措施及規範調修規劃歐盟執委會在2015年12月9日提出歐盟朝向現代化著作權架構行動計畫(Towards a modern, more European copyright framework),目的為落實歐盟數位單一市場策略(Digital Single Market Strategy),對於創意產業能夠激勵投資,並且打造公平的競爭環境。行動計畫分為四項重點: 一、放寬歐盟地區內容取得服務: 歐盟已針對線上服務內容如影音、遊戲等,提出草案,未來將允許線上服務內容可以跨境取得,不受地區性之限制,範圍僅限於歐盟會員國地區。歐盟亦將利用創意歐洲計畫持續鼓勵創意產業發展,增加更多使用服務之民眾。 二、放寬著作權相關免責規範之適用: 未來歐盟將修正規範,使研究人員就資料內容之取得與利用更為便利。此外,教育為另外一項重點,例如應訂有明確使用線上內容做為教學之規範。在身障者保護部分,則亦應設立規範。 三、創造公平市場: 歐盟將評估線上作品之使用與分享是否為公平授權,且未來將首先針對新聞服務業者進行檢討,對於使用者在網路上單純分享作品連結者,將視為合理使用。另外,針對作者與表演者報酬部分,歐盟未來將有一致性之政策規範標準。 四、打擊盜版: 歐盟認為,新政策的執行將使著作物能經過合理管道使用,因此可抑制盜版行為。而在2016年預計進行之“follow the money”計畫,預計與使用者及權利人相互配合,阻斷盜版所產生之資金流動。 未來,歐盟預計於六個月內將此架構願景轉換為草案或政策推動方針,其中在允許線上服務內容可以跨境取得之草案規範部分,歐盟執委會則希望於2017年能正式生效施行。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。