日本A-STEP計畫係指研發成果最適展開支援事業計畫,由國立研究開發法人科學技術振興機構負責辦理,主要目的在於兼顧大學研究成果之學術價值及實用性,同時透過產學合作推展大學的研發成果,帶動創新產生。計畫針對產業技術瓶頸,為民間企業不易涉入的高風險研發領域,由科學技術振興機構中介民間企業與公私立大學、公私立技術學院、公立研究機構、國立研究開發法人、公益法人共同執行產學研種子研發計畫,再依據不同的目的、技術性質規劃不同類型的產學研合作研究計畫進行資助。
研究成果最適展開支援事業有兩個特色:單一申請窗口、以及採取接續模式分段申請。其流程為,大學研究人員向國立研究開發法人科學技術振興機構申請研究成果最適展開支援事業,在研究開發階段中,若被補助的種子計畫在結束後,想持續進行研究,可申請另一階段-委託開發實用挑戰之計畫補助,國立研究開發法人科學技術振興機構將透過外界研究人員對計畫進行審核,決定是否延長計畫以及延長的期程。一般研究開發可區分為三階段:可能性驗證、實用性驗證與實證驗證,故研究人員在申請A-STEP計畫時,研究計畫中需提及所申請計畫的現在發展情況與條件及想申請何種項目,以利國立研究開發法人科學技術振興機構決定後續的處理方式。
本文為「經濟部產業技術司科技專案成果」
人工智慧目前正快速發展,不論是在醫療、農業耕作、製造生產或是氣候變遷等領域上,均帶來了許多改變,然而在人工智慧應用之同時,其也存在許多潛在風險如決策不透明、歧視或其他倫理與人權議題。 歐盟為求在全球競爭激烈的背景下,維護其於人工智慧相關領域的領先地位,並確保人工智慧技術於改善歐洲人民生活的同時,亦能尊重(respecting)人民權利,乃於今年(2020年)2月發布「人工智慧白皮書」(White Paper on Artificial Intelligence),將採投資及監管併用之方式,促進人工智慧應用與解決其相關風險,其對於未來促進人工智慧的應用(promoting the uptake of AI)與相關風險解決,計畫朝向建立卓越生態系統(An Ecosystem of Excellence)及信任生態系統(An Ecosystem of Trust)兩方面進行。 在建立信任生態系統中,歐盟提到因為人工智慧具有變革性的潛力,所以就信任的建立乃至關重要,未來歐洲人工智慧的監管框架除了須確保遵守歐盟法規外(包括基本權利保護與消費者權益維護之規範),對於高風險性之人工智慧應用,其將強制要求需於銷售前進行合格評定(mandatory pre-marketing conformity assessment requirement)。而有關高風險性之定義,歐盟於該白皮書指出須符合以下兩個要件: 考量人工智慧應用之一般活動特徵,其預計會有重大風險的發生,例如在醫療保健、運輸、能源和可能屬於高風險的公共領域;以及 在預期用途或應用上都可能對個人(individual)或企業(company)帶來重大的風險,特別是在安全性(safety)、消費者權益(consumer rights)與基本權利(fundamental rights)上。 歐盟委員會目前針對於以上白皮書之內容與附隨報告,將向公眾徵詢意見至今年5月19日。
2011年個人資料外洩事件與前年相比減少128件,總數為1551件-預測賠償金額比前年擴大1.5倍日本2011年個人資料外洩事件及事故的件數比前年減少為1551件,但洩漏的個人資料筆數卻超過前年一成以上,約有600萬筆個人資料外洩。從數字來看預估的賠償金額是超過1900億日幣。 日本網路資安協會(JNSA)與資訊安全大學研究所的原田研究室及廣松研究室共同針對報紙集網路媒體所報導的個人資料外洩相關事件及事故所進行的調查所做的結論。 新力集團旗下的海外公司雖然發生合計超過1億筆的大規模個人資料外洩的意外,但此一事故並無法明確判別是否屬於個人資料保護法的適用範圍,因此從今年的調查對象裡排除。 在2011年發生的資料外洩事件有1551件,比起前年的1679件減少128件,大約跟2009年所發生的個人資料外洩差不多水準。外洩的個人資料筆數總計約628萬4363筆,與前年相較約增加70萬筆。平均1件約洩漏4238筆個人資料。 將事故原因以件數為基礎來分析,可以發現「操作錯誤」佔全體的34.8%為第一位,其次是「管理過失」佔32%,再接下來是「遺失、忘記帶走」佔13.7%。但以筆數來看,值得注意的是「管理過失」佔37.7%最多,但「操作錯誤」就僅有佔2.3%的少數。 再以佔全體事件件數5%的「違法攜出」就佔了全體筆數的26.9%;在佔全體件數僅有1.2%的「違法存取」卻在筆數佔了20.9%,可以看到平均每一件的受害筆數有開始膨脹的傾向。 再者從發生外洩原因的儲存媒體來看,紙本佔了以件數計算的68.7%的大多數,以USB記憶體為首的外接式記憶體佔了10.1%;但以筆數計算的話,外接式記憶體佔了59.1%、網路佔了25.5%的不同的發生傾向。 從大規模意外來看,金融機關與保險業界是最值得注意,前10件裡佔了7件。從發生原因來看,「違法攜出」及「內部犯罪」所造成的事故10件中有4件,其次是「管理過失」。規模最大的是山陰合同銀行的受委託人將業務所需的165萬7131件個人資料攜出的事故。 依據2011年所發生的事件及事故的預估賠償額是1899億7379萬日幣。遠超過前年的1215億7600萬日幣。平均一起事件預估損害賠償金額有1億2810萬日幣,每人平均預估賠償金額是4萬8533日幣。
MPAA 藉由 BT 網站伺服器記錄對 P2P(BT) 軟體用戶提起訴訟追蹤、定位、起訴,所有 P2P(BT) 軟體使用者的噩夢再次上演。全美製片業團體「美國電影協會」 ( Motion Picture Association of America ; MPAA ) 在 8 月 25 日對美國境內 286 位居民提起訴訟,成為首宗利用 P2P(BT) 網站伺服器記錄 ( server logs ) 追蹤 ( track down ) 盜版電影下載者的案例。 今年 2 月,著名 BT 網站 LokiTorrent 與 MPAA 的大戰告一段落。德州法院下令 LokiTorrent 關閉網站外,並命令 LokiTorrent 將伺服器記錄轉交給 MPAA 的調查員 ( investigator ) 。 MPAA 的發言人聲稱本月 25 日的訴訟與此事件無關,但所有人都明白 MPAA 正是憑此線索,最終找到了 P2P(BT) 用戶的行蹤。好萊塢希望藉此行動阻嚇免費下載電影的行?, MPAA 資深副總裁 John Malcom 聲稱「下載盜版電影的人要當心了,當你為著作權侵害行為時,網路上並不會有朋友站出來替你撐腰。」 儘管 P2P(BT) 軟體背負著助長盜版的惡名,但 P2P(BT) 的合法用途也在逐漸增加,例如使用 P2P(BT) 技術分發 ( distribute ) 開放原始碼軟體 ( open-source software ) ,網路瀏覽器軟體公司 Opera 即在新版的程式中內建了此種技術。 BT 技術的發明人 Bram Cohen 曾警告用戶,使用 P2P(BT) 軟體下載盜版是個蠢主意,因?軟體在設計時並未刻意隱藏用戶的識別資訊,這也是為何 MPAA 此次能憑藉著伺服器記錄對用戶提起訴訟的主要原因。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。