芬蘭Skene計畫聚焦電玩遊戲產業

  依據統計,2011年全球電玩遊戲產值約516億歐元,是娛樂產業中成長最快速的領域,行動遊戲(mobile gaming)也因智慧型手機普及率之提升,在其中扮演舉足輕重的角色。有鑒於此,芬蘭政府於今(2012)年啟動Skene-遊戲補給計畫(Skene-Game Refueled,以下簡稱Skene計畫)促進其遊戲產業的研發創新。

  Skene計畫預計從今(2012)年起實施至2015年,將投入7000萬歐元資金補助,其中3000萬歐元由芬蘭的創新補助機關-國家技術創新局(teknologian ja innovaatioiden kehittämiskeskus,Tekes)提供。該計畫致力於創造國際級遊戲及娛樂聚落的形成,期能使芬蘭企業成為國際遊戲產業生態中的重要成員。芬蘭政府欲藉由此一計畫,突破芬蘭Rovio公司過往開發「憤怒鳥」(angry bird)遊戲之偶發性的成功模式,讓芬蘭遊戲產業獲得長期永續的商業效益。Tekes於本計畫中特別強調知識分享的重要,認為此計畫的核心目的在於促進相關知識或經驗,得以在研究機構的專家、遊戲公司乃至其他產業間有系統的傳遞。

  事實上芬蘭推動Skene計畫之動機,除了著眼於遊戲產業本身所帶來的龐大商業效益外,也看到遊戲開發過程中產出工具在其他產業之模型、模擬實驗、使用者介面設計及傳統軟體開發方面之助益(例如在醫療照護產業、運算服務之運用或協助教育環境建構或運動訓練等)。由此觀之,芬蘭政府透過Skene計畫推動遊戲產業研發創新之考量,尚包括帶動其他產業之提升的深遠思考。

  近年來我國遊戲產業在商業上的表現逐漸受到各界重視,在此背景下,芬蘭Skene計畫無論在具體作為及其背後的思維模式上,皆有我國可以參考借鏡之處。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 芬蘭Skene計畫聚焦電玩遊戲產業, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5801&no=64&tp=1 (最後瀏覽日:2026/01/21)
引註此篇文章
你可能還會想看
美國消費者金融保護局擬納管一般性數位支付應用程式

2023年11月7日美國消費者金融保護局(Consumer Financial Protection Bureau, CFPB)發布擬議規則制定通知(notice of proposed rulemaking),計劃將一般性數位支付應用程式提供者的「較大參與者」(larger participants)納入監管,基於非銀行支付市場對消費者的日常金融生活日益重要,考量相關消費者保護風險,而有必要將此類支付公司納入《消費者金融保護法》(Consumer Financial Protection Act, CFPA)的監管範圍。 根據擬議規則,「提供一般性數位支付應用程式」是指消費者藉由應用程式的資金轉帳功能和數位錢包功能,進行「一般性」數位支付交易的應用程式。申言之,該數位支付應用程式係用於一般性產品或服務的消費,而非特定供應商所提供,且僅限用於支付其所提供商品或服務之數位交易手段。 此外,「較大參與者」之定義為透過行動通訊或網路應用程式提供數位錢包或個人對個人(person-to-person, P2P)支付的非銀行機構,並每年完成超過500萬筆支付交易,且該機構不屬於《小型企業法》(Small Business Act, SBA)所定義的小型企業(small business),根據CFPB估計,擬議規則將擴大監管於現行17家非銀行支付機構,其全年交易金額將近130億美元。 有鑑於消費者資訊貨幣化(Monetization)之資料治理議題,及數位支付領域的大型科技公司因持續發展而產生市場壟斷疑慮,CFPB擬藉由此項擬議規則擴大監管措施,將美國大型數位支付科技公司納入監管,要求其遵守CFPA的規範,使數位支付領域的非銀行機構及存款機構同步受到監管,一方面維持數位支付市場之公平競爭環境,並同時確保消費者受到CFPA的保障,降低消費者在使用數位支付時的交易風險。 近年我國因疫情的零接觸政策及數位經濟時代來臨,數位支付應用因而蓬勃發展,我國於2023年11月21日三讀通過《金融消費者保護法》修正案,將電子支付業納入金融服務業,逐步加強金融消費者權益保護,我國應持續追蹤外國金融消費者保障動態,在金融消費者保障上持續前進。

澳洲詮釋自動駕駛「恰當駕駛」內涵

  澳洲國家交通委員會(National Transport Commission, NTC)2017年11月提出「國家自駕車實施指南(National enforcement guidelines for automated vehicles)」,協助執法單位適用目前道路駕駛法規於自駕車案例上。由於澳洲道路法規(Australian Road Rules)第297條第1項規範「駕駛者不得駕駛車輛除非其有做出恰當控制(A driver must not drive a vehicle unless the driver has proper control)」,此法規中的「恰當控制」先前被執法機關詮釋為駕駛者應坐在駕駛座上並至少有一隻手置於方向盤上。因此本指南進一步針對目前現行法規適用部分自動駕駛系統時,執法機關應如何詮釋「恰當駕駛」內涵,並確認人類駕駛於部分自動駕駛系統運作時仍應為遵循道路駕駛法規負責。   本指南僅提供「恰當控制」之案例至SAE J2016第一級、第二級和第三級之程度,而第四級與第五級之高程度自動駕駛應不會於2020年前進入市場並合法上路,因此尚未納入本指南之詮釋範圍之中。本指南依照採取駕駛行動之對象、道路駕駛法規負責對象(誰有控制權)、是否應將一隻手放置於方向盤、是否應隨時保持警覺以採取駕駛行動、是否可於行駛中觀看其他裝置等來區分各級自動駕駛系統運作時,人類駕駛應有之恰當駕駛行為。

美國將修法全力圍堵政府資料外洩

  美國國會於今年(2009)11月18日提出「聯邦檔案安全分享法案(Secure Federal File Sharing Act)」,內容主要是限制所有政府部門員工(包含約聘制人員),在未經官方正式同意之前,不得下載、安裝或使用任何點對點傳輸(Peer to Peer, P2P)軟體。期望藉由該法案的通過實施,徹底防堵政府及相關個人機敏資料的外洩。   該法案的制定,最初來自於政府部門對其財務資料保護的要求,早於2004年白宮管理及預算辦公室(The White House Office of Management and Budget)即已建議聯邦政府的各個單位應禁止其職員使用P2P軟體,以防止資料外洩。而於將近一個月前,國會道德委員會取得多位國會議員的財務狀況、經歷及競選贊助金額,並作成調查報告,未料一位新進職員將該份未經加密保護的報告存於自家裝有前述P2P軟體的電腦硬碟中,從而導致該份報告內容全部外洩。此一事件立即對向來注重政府及個人資料保護的美國投下了震撼彈,也促使該法案正式浮出檯面。   歐此項法案的提出毫無意外地得到視聽娛樂產業界的正面支持。主因來自多數人藉由此種軟體在網際網路上分享音樂、影片或其他應用軟體,時常侵害他人的智慧財產權,而法案的內容則是要求政府部門員工無論是在工作或是家中使用P2P軟體都須取得官方授權,無疑是直接限制了上述的分享行為。娛樂業者更進一步指出,P2P軟體對資訊安全的危害在於多數人無法明確知道該軟體的運作方式,而無法對其做正確的設定,使得軟體一旦被啟動,電腦內的所有資料:包含個人的社會安全卡號碼、醫療及退稅紀錄等,就立即暴露於網際網路之中!對此,除了推動此項法案的官員大聲疾呼:「用個人自律的方式防止資料外洩已經失敗,證明國會應該有所行動。   美國錄音產業協會(Recording Industry Association of America)則是預測前述國會調查報告的外洩,將會是資安法案重整的強力催化劑。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

TOP