瑞典與法國簽署成立戰略夥伴關係進行綠色創新合作

  於2017年11月17日,瑞典與法國共同簽署成立戰略夥伴關係,共同致力於創新與數位化轉型,尋求綠色解決方案,由產業界、新創公司、學術界以及公共部門共同參與,此次合作兩大主軸分別為數位化轉型以及因應氣候變遷的綠色創新,工作細項側重四大領域:

(1)運輸、乾淨能源與智慧城市的綠色創新方案:以大幅減少交通運輸所產生的溫室氣體為目標,瑞典希望相較於2010年,至2030年時至少減少國內運輸排放量百分之七十(不包括航空),法國則宣布希望至2040年前能結束出售以化石燃料運行的汽車,兩國將與企業共同合作尋求解決方案並創造就業機會。

(2)因應氣候變遷的綠色經濟:朝向低(零)碳排放量的社會前進,並制定一套適當的法律框架。

(3)數位化轉型、智慧產業與新創公司:兩國將使中小企業進行數位化轉型的知識交流,致力於支持中小企業數位化轉型進程;除此之外,為了實現長期的共同利益,善用彼此的相關研究,研究小組更進一步尋求雙方人力資源的合作,包含研究人員相互交流並鼓勵企業共同探索研發成果的商機。

(4)健康與生命科學創新:確立完善的健康照護體系以及衛生系統不斷的重新評估與改革對兩國相互交流醫療保健模式是有助益的,兩國重視當前高齡化的社會照護,通過科技創新在健康、福利與預防醫學上達到E化保健與遠程保健等目標,藉由以病人為中心的醫療體系,更新社會醫療保健模式。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ 瑞典與法國簽署成立戰略夥伴關係進行綠色創新合作, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7966&no=55&tp=1 (最後瀏覽日:2024/11/23)
引註此篇文章
你可能還會想看
澳洲通過新修正之隱私法,大幅提高罰責以期遏止個資事故

  澳洲司法部長Mark Dreyfus於2022年10月26日提出聯邦《2022年隱私法修正案(執法及其他措施)》(Privacy Legislation Amendment (Enforcement and Other Measures) Bill 2022 (Cth) ),並於11月28日正式通過,顯示澳洲政府對於近期多起大型個資事故的重視,以及民眾對於個資保護之公民意識逐漸成熟。   近期澳洲發生之兩起大規模個資事故,其一為9月底澳洲第二大電信業者Optus表示受到網路攻擊,約有1,000萬人(約占澳洲人口40%)的個資遭到外洩,除了姓名、性別、生日等資料之外也包括用戶的住址、駕照和護照號碼等;無獨有偶,於十月底澳洲最大的私人健康保險公司Medibank亦公開聲明發生200GB的資料遭到竊取的個資事故,被竊資料中有大約970萬名現在或過去客戶的姓名、出生日期、地址、電話號碼和電子郵件地址等資料,因為此兩起大型個資事故的發生,促使澳洲政府不得不予以重視,在極短時間內通過新法修正。   此次修正案修改1988年《隱私法》(Privacy Act)、2010年《澳洲資訊委員法》(Australian Information Commissioner Act)和2005年《澳洲通訊及媒體管理局法》(Australian Communications and Media Authority Act 2005),修正重點包含加重裁罰、加強資訊委員執法權限及域外管轄權。   一、加重裁罰之部分,依修正《隱私法》第13G條,當嚴重或反覆侵犯他人隱私事件發生時,若行為人為「非法人」(a person other than a body corporate,即我國法之自然人)時,其由行政機關課予當事人之罰金(civil penalty)上限提高到250萬澳幣(約新台幣5,200萬);若行為人為「法人」(body corporate)時,罰金上限增加到5,000萬澳幣(約新台幣10億)或其所得利益價值的三倍(兩者取其高)。如果法院無法確定利益的數額,則取法人違規期間或事故發生後12個月內(擇其時間較長者)調整型營收(adjusted turnover*)的30%。   二、關於資訊委員執法權限強化部分,其擴大資訊委員與他公私部門間交換及查閱資訊之權限,資訊委員得向嫌疑人進行調查或要求交付相關證據,且賦予資訊委員得不待法院裁判,逕對妨害查辦者課以民事制裁,甚至得將屢次妨害查辦之法人團體之行為定為刑事犯罪。   三、有關域外管轄權部分,原先僅適用於「未在澳洲設立登記,但有在澳洲境內蒐集個資且經營業務」之公司;現刪除「有在澳洲境內蒐集個資」之規定,故未在澳洲登記之公司往後即使未在澳洲境內蒐集個資,若有在澳洲境內經營業務即受有域外效力之管轄,其範圍甚至將比歐盟GDPR之域外管轄權更為寬廣。   至於提高裁罰金額能否提升資安及個資保護之效益仍有待商榷,惟提高罰鍰額度應能使持有個資業者採行較高之資料保護安全措施等級。我國近期亦發生2,300萬筆民眾戶政資料外洩事件,依我國《個人資料保護法》規定,個資事故發生時,若被害人不易或不能證明其實際損害額時,法院依侵害情節,以每人每一事件500以上至2萬元以下計算財產損害。且同一原因事實造成的事件,原則上其賠償最高總額以2億元為限。若我國將來修法適當調整金額,相信有望遏止類似事故不斷發生。   *調整型營收(adjusted turnover):指公司(及相關企業)在違規期間內營業額扣除應調整之稅額例外項目後,所有商品及服務價值的總和。

放寬視障者及閱讀障礙者著作權合理使用之範圍

  2009年5月,巴西、厄瓜多爾及巴拉圭於世界智慧財產權組織(The World Intellectual Property Organization,以下簡稱WIPO)之著作權及其相關權利常務理事會(Standing Committee on Copyright and Related Right, 以下簡稱SCCR)中,根據世界盲人聯盟(World Blind Union ,以下簡稱WBU)所草擬的一份關於「促進視障者(Visually Impaired Persons,以下簡稱VIPs)及閱讀障礙者接觸受著作權保護之資訊」國際性公約,內容為提出增訂著作權的限制及例外(limitations and exceptions)條款的相關主張,亦即針對視障者及閱讀障礙者放寬著作權合理使用範圍。   SCCR的會員,將就此草擬公約於2010年5月26日至28日進行協商討論,其協商結果亦將於日內瓦下一屆會議中提出討論。 另外,WIPO也透過網路開放之平台,開放各界參與本議題之討論(https://www3.wipo.int/forum/),該網路論壇將持續開放討論至2010年6月20日,並決定加快有利於視障者接觸資訊之相關問題。 目前全球有超過3億1千4百萬盲人或視障者,但目前於全球各地,供給視障者及閱讀障礙者閱讀或收聽資訊的工具很少,在多數國家中,尤其是發展中國家,此將影響其教育及就業機會,甚至使其更陷於弱勢地位。而為促進保障視障者及閱讀障礙者接觸資訊的權利,例如藉由點字書(Braille)、大字本(large print)等科技產品,俾利提供給視障者及閱讀障礙者閱讀或收聽的工具。但如何結合現代科技、增進其接取資訊的機會與放寬著作權相關規定;亦即如何讓著作權所有人的權利受到保護,以及有利於盲人或視障者接觸資訊,兩者間如何取得平衡,其著作權合理使用範圍是需要再思考的問題。

英國發布《AI保證介紹》指引,藉由落實AI保證以降低AI系統使用風險

英國發布《AI保證介紹》指引,藉由落實AI保證以降低AI系統使用風險 資訊工業策進會科技法律研究所 2024年03月11日 人工智慧(AI)被稱作是第四次工業革命的核心,對於人們的生活形式和產業發展影響甚鉅。各國近年將AI列為重點發展的項目,陸續推動相關發展政策與規範,如歐盟《人工智慧法》(Artificial Intelligence Act, AI Act)、美國拜登總統簽署的第14110號行政命令「安全可靠且值得信賴的人工智慧開發暨使用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)、英國「支持創新的人工智慧監管政策白皮書」(A Pro-innovation Approach to AI Regulation)(下稱AI政策白皮書)等,各國期望發展新興技術的同時,亦能確保AI使用的安全性與公平性。 壹、事件摘要 英國科學、創新與技術部(Department for Science, Innovation and Technology,DSIT)於2024年2月12日發布《AI保證介紹》(Introduction to AI assurance)指引(下稱AI保證指引),AI保證係用於評測AI系統風險與可信度的措施,於該指引說明實施AI保證之範圍、原則與步驟,目的係為讓主管機關藉由落實AI保證,以降低AI系統使用之風險,並期望提高公眾對AI的信任。 AI保證指引係基於英國政府2023年3月發布之AI政策白皮書提出的五項跨部會AI原則所制定,五項原則分別為:安全、資安與穩健性(Safety, Security and Robustness)、適當的透明性與可解釋性(Appropriate Transparency and Explainability)、公平性(Fairness)、問責與治理(Accountability and Governance)以及可挑戰性 與補救措施(Contestability and Redress)。 貳、重點說明 AI保證指引內容包含:AI保證之適用範圍、AI保證的三大原則、執行AI保證的六項措施、評測標準以及建構AI保證的五個步驟,以下將重點介紹上開所列之規範內容: 一、AI保證之適用範圍: (一)、訓練資料(Training data):係指研發階段用於訓練AI的資料。 (二)、AI模型(AI models):係指模型會透過輸入的資料來學習某些指令與功能,以幫助建構模模型分析、解釋、預測或制定決策的能力,例如GPT-4。,如GPT-4。 (三)、AI系統(AI systems):係利用AI模型幫助、解決問題的產品、工具、應用程式或設備的系統,可包含單一模型或多個模型於一個系統中。例如ChatGPT為一個AI系統,其使用的AI模型為GPT-4。 (四)、廣泛的AI使用(Broader operational context):係指AI系統於更為廣泛的領域或主管機關中部署、使用的情形。 二、AI保證的三大原則:鑒於AI系統的複雜性,須建立AI保證措施的原則與方法,以使其有效執行。 (一)、衡量(Measure):收集AI系統運行的相關統計資料,包含AI系統於不同環境中的性能、功能及潛在風險影響的資訊;以及存取與AI系統設計、管理的相關文件,以確保AI保證的有效執行。 (二)、評測(Evaluate):根據監管指引或國際標準,評測AI系統的風險與影響,找出AI系統的問題與漏洞。 (三)、溝通(Communicate):建立溝通機制,以確保主管機關間之交流,包含調查報告、AI系統的相關資料,以及與公眾的意見徵集,並將上開資訊作為主管機關監理決策之參考依據。 三、AI保證的六項措施:主管機關可依循以下措施評測、衡量AI系統的性能與安全性,以及其是否符合法律規範。 (一)、風險評估(Risk assessment):評測AI系統於研發與部署時的風險,包含偏見、資料保護和隱私風險、使用AI技術的風險,以及是否影響主管機關聲譽等問題。 (二)、演算法-影響評估(Algorithmic-impact assessment):用於預測AI系統、產品對於環境、人權、資料保護或其他結果更廣泛的影響。 (三)、偏差審計(Bias audit):用於評估演算法系統的輸入和輸出,以評估輸入的資料、決策系統、指令或產出結果是否具有不公平偏差。 (四)、合規性審計(Compliance audit):用於審查政策、法律及相關規定之遵循情形。 (五)、合規性評估(Conformity assessment):用於評估AI系統或產品上市前的性能、安全性與風險。 (六)、型式驗證(Formal verification):係指使用數學方法驗證AI系統是否滿足技術標準。 四、評測標準:以國際標準為基礎,建立、制定AI保證的共識與評測標準,評測標準應包含以下事項: (一)、基本原則與術語(Foundational and terminological):提供共享的詞彙、術語、描述與定義,以建立各界對AI之共識。 (二)、介面與架構(Interface and architecture):定義系統之通用協調標準、格式,如互通性、基礎架構、資料管理之標準等。 (三)、衡量與測試方式(Measurement and test methods):提供評測AI系統的方法與標準,如資安標準、安全性。 (四)、流程、管理與治理(Process, management, and governance):制定明確之流程、規章與管理辦法等。 (五)、產品及性能要求(Product and performance requirements):設定具體的技術標準,確保AI產品與服務係符合規範,並透過設立安全與性能標準,以達到保護消費者與使用者之目標。 五、建構AI保證的步驟(Steps to build AI assurance) (一)、考量現有的法律規範(Consider existing regulations):英國目前雖尚未針對AI制定的法律,但於AI研發、部署時仍會涉及相關法律,如英國《2018年資料保護法》(Data Protection Act 2018)等,故執行AI保證時應遵循、考量現有之法律規範。 (二)、提升主管機關的知識技能(Upskill within your organisation):主管機關應積極了解AI系統的相關知識,並預測該機關未來業務的需求。 (三)、檢視內部風險管理問題(Review internal governance and risk management):須適時的檢視主管機關內部的管理制度,機關於執行AI保證應以內部管理制度為基礎。 (四)、尋求新的監管指引(Look out for new regulatory guidance):未來主管機關將制定具體的行業指引,並規範各領域實踐AI的原則與監管措施。 (五)、考量並參與AI標準化(Consider involvement in AI standardisation):私人企業或主管機關應一同參與AI標準化的制定與協議,尤其中小企業,可與國際標準機構合作,並參訪AI標準中心(AI Standards Hubs),以取得、實施AI標準化的相關資訊與支援。 參、事件評析 AI保證指引係基於英國於2023年發布AI政策白皮書的五項跨部會原則所制定,冀望於主管機關落實AI保證,以降低AI系統使用之風險。AI保證係透過蒐集AI系統運行的相關資料,並根據國際標準與監管指引所制定之標準,以評測AI系統的安全性與其使用之相關影響風險。 隨著AI的快速進步及應用範疇持續擴大,於各領域皆日益重要,未來各國的不同領域之主管機關亦會持續制定、推出負責領域之AI相關政策框架與指引,引導各領域AI的開發、使用與佈署者能安全的使用AI。此外,應持續關注國際間推出的政策、指引或指引等,研析國際組織與各國的標準規範,借鏡國際間之推動作法,逐步建立我國的AI相關制度與規範,帶動我國智慧科技產業的穩定發展外,同時孕育AI新興產應用的發展並打造可信賴、安全的AI使用環境。

美國衛生暨福利部於09年8月公布關於醫療資訊外洩通知義務之暫行最終規則

  於2000年基因圖譜解碼後,「基因歧視」議題成為各界關注焦點,而在電子通訊技術之配合下,更加速了包括基因資訊之個人醫療資訊的流通。在此時空背景下,如何能在善用相關技術所帶來的便捷同時,也對於相關資訊不甚外流時,得以有適切的因應措施以保障患者之隱私,成為了必須處理的問題。   美國國會甫於今年(2009年)2月所通過的「經濟與臨床健康資訊科技法」 (The Health Information Technology for Economic and Clinical Health Act, HITECH) 之相關修正中,強化了對醫療資訊之保護,其中要求美國衛生暨福利部(the Department of Health and Human Service, HHS ),針對受保護之醫療資訊未經授權而取得、侵入、使用或公開外洩之情形擬定「暫行最終規則」(interim final rule)進行管理,該項規則亦於今年(2009年)8月24日公布。值得注意的是,HITECH之規範主體(適用主體、商業夥伴)與保護客體(未依法定方式做成保護措施之健康資訊)皆沿用「1996醫療保險可攜性與責任法案」(the Health Insurance Portability and Accountability Act of 1996, HIPAA)之定義。然而,與HIPPA最大的不同在於, HIPAA中僅以私人契約之隱私權政策間接地管理醫療資料外洩事件,但於暫行最終規則中直接課以相關主體一項明確且積極的法定通知義務。HITECH之規範主體,基於其注意義務,應於得知或可得而知之日起算,60日內完成通知義務;視醫療資訊外洩之嚴重程度,其通知之對象亦有所不同,必要時應通知當地重要媒體向外發布訊息,HHS也將會以表單方式公布於其網站中。   整體而言,HITECH首次課以規範主體主動向可能受影響個人通知醫療資訊外洩事件之義務,此為HIPPA過去所未規範者;其次HITECH也突破HIPAA過往基於契約關係執行相關隱私權及安全規定之作法,於法規上直接對於洩露醫療資訊之相關主體課以刑責,強化了違反HIPAA隱私權與安全規定之法律效果。惟值得注意的是,受限於美國國會對HHS提出最終規則之期限要求,HHS現階段所提出的版本僅屬暫行規定,最終規定之最終確切內容仍有待確定,也值得我們持續觀察。

TOP