新加坡政府科技局(Government Technology Agency of Singapore, 下稱 GovTech)在2017年8月21號提出智慧國家的5個策略性國家計畫,指出為了建立數位國家,政府將會更加注重基礎建設的整合途徑,未來將聚焦5項計畫:
本文為「經濟部產業技術司科技專案成果」
隨著英國國家健康服務(National Health Service, NHS)的改革,衛生和社會照護法(The Health and Social Care Act 2012)第九部分第二章,規範成立英國衛生與社會照護資訊中心(The Health and Social Care Information Centre, HSCIC)作為政府醫療資訊公開、整合與管理單位,此項規定於今(2013)年4月1日生效。 HSCIC並非正式的政府部會,而屬於執行行政法人(Executive Non Departmental Public Bodies),向衛生部長(Secretary of State for Health)負責,其職責除了蒐集、分析和傳播國家資料暨統計資訊以外,同時亦進行國家各層級的醫療資訊基礎設施的整合,作為醫療資訊數據公開的門戶;此外,HSCIC利用其行政法人的特性,將醫療組織視為客戶,提供不同的服務和產品,以協助其達到所需的資訊管理需求。透過HSCIS對於資訊的整合再公開,有助於在增進政府資訊透明性的同時,亦保障了資訊流動的效率和安全性。 其中HSCIC對於敏感性資料之應用,特別設立資料近用諮詢小組(Data Access Advisory Group, DAAG)予以處理。資料諮詢小組是每月定期由HSCIC所主持的獨立運作團體,須向HSCIC委員會負責。當HSCIC面臨敏感性資料或可識別個人資料之應用(包括是為了研究目的,和為了促進病人的醫療照護所需之應用)時,即交由資料近用諮詢小組會議來討論,以確保揭露該項資訊的風險降到最低。 從HSCIC的組織任務能輕易地發現其具有強大整合醫療資訊之功能,其未來發展勢必與過往飽受爭議的醫療資訊應用息息相關,因此相當值得我們持續觀察HSCIC的後續動態。
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。
微軟,摩托羅拉兩度正面交鋒專利訴訟微軟與摩托羅拉移動(谷歌旗下公司)將展開第二次關於智慧型手機及其他技術的專利侵權訴訟之審判。 這場陪審訴訟將於周一在西雅圖舉辦,主要將解決“摩托羅拉是否違反以非合理的條款授權微軟在Xbox遊戲機中無線和視訊技術領域所使用的標準必要專利(standard essential patents)。 去年11月,兩科技公司進行第一次大對決,確認了微軟應支付給摩托羅拉使用其專利技術的費用。經過5個月的審議後,美國地方法院James Robart審判法官裁定給微軟優惠方案,其建議每年支付約略180萬美元的費用給摩托羅拉,雖超過微軟所估算的100萬美元,但仍遠低於摩托羅拉原提出的40億美元的要求。 微軟依據過去的文件資料表示,微軟過去已表示支付給摩托羅拉680萬美元的權利金,但摩托羅拉拒絕這筆權利金的費用。 面對即將到來的訴訟案,微軟將主張摩托羅拉原先所提出的需求屬不合理要求,已違背其費用主張的合理和不帶歧視性的條款(reasonable and non-discriminatory terms)協議。 合理和不帶歧視性的條款(reasonable and non-discriminatory terms),一般稱為“RAND“,其條款主要是為了防止擁有標準必要專利之公司,透過專利龔斷市場,使用不合理的競爭手法,造成其他競爭對手的傷害。
澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)