美國聯邦貿易委員會(Federal Trade Commission,以下簡稱FTC)在2016年2月針對一款宣稱能矯正視力之Ultimeyes App處罰。此款App由Carrot Neurotechnology公司研發,以美金9.99元於平台上販售供民眾下載。App宣稱具有提升及改善視力功能,透過App使用即可在日常生活中的各種活動中,感受視力恢復而不需使用眼鏡。然而,FTC起訴認為,App所稱之使用療效,缺乏充分的文獻資料佐證說明。其必須具備完整及可信賴的科學證據來證明,包含臨床試驗或盲測等方式,且該科學證明必須符合相同領域專家所認定之標準,否則,該款App內容所標榜之效果即屬不實陳述,將造成民眾誤認。為此,Carrot Neurotechnology公司最終以美金15萬達成和解,並且經FTC要求,若將App說明當中未經科學證明的療效部份予以刪除,即可繼續再繼續販售此款App。此案並非美國FTC首度針對mHealth App處罰之案例,然而,可能造成mHealth App發展業者對FTC與FDA角色之間之混淆,後續兩者主管機關之間之角色如何調和將是未來關注之重點。反觀我國,目前雖無相關案例發生,然在鼓勵發展之際,亦應考量是否有違反消費者保護之情形。
本文為「經濟部產業技術司科技專案成果」
.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 2024年11月底,澳洲政府通過了2024年網路安全法(Cyber Security Bill 2024),期許藉由制定專法,保護澳洲現在與未來的網路環境。 2024年網路安全法主要包含以下內容: 1. 制定並落實全境智慧型裝置之最低網路安全標準。過往澳洲智慧型裝置不受任何強制性網路安全標準或法規約束,該法通過後,將能有效提升消費者網路安全。 2. 研搜對抗網路勒索軟體活動之資訊。澳洲政府不鼓勵企業在遭遇勒索軟體攻擊時支付贖金,因為支付贖金不僅鼓勵網路犯罪,更不能保證資料的恢復或機密性。然目前澳洲政府並未立法禁止支付贖金之行為,僅於2024年網路安全法要求關鍵基礎設施或營業額達定一定門檻之企業,假若不幸遭受勒索軟體攻擊,並決定支付贖金,須於72小時內向主管機關通報。 該通報義務是為幫助主管機關即時掌握勒索活動資訊,快速制定應對策略,並開發有利業界執行網路防禦的工具和資源,破壞勒索軟體獲利模式。依目前規定,報告內容將包含勒索金額、支付對象、支付方法等資訊。 3. 鼓勵企業分享網路安全資訊。2024年網路安全法為鼓勵企業與政府共享網路安全事件資訊,限制國家網路安全人員存取前揭資訊之目的,如不得利用企業自願提供之網路安全事件資訊調查企業違規行為,除非符合2024網路安全法規定之例外情況。 4. 建立網路事件審查委員會(Cyber Incident Review Board)。該委員會作為獨立機構,負責對重大網路安全事件進行有無過失之事後審查,並為政府和產業提供建議,以確保各方利害關係人能夠從網路安全事件中吸取教訓。 2024年網路安全法的制訂,顯示澳洲政府為強化網路安全付出諸多努力,該國政府期許透過該法保護澳洲人免受網路安全威脅。
美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。
台南市低碳自治條例與國際促進能源效率立法趨勢台南市低碳自治條例與國際促進能源效率立法趨勢 科技法律研究所 2013年3月26日 壹、事件摘要 根據自由時報3月5日報導,台南市為將該市打造為國際指標性之低碳城市,在去年制訂了「台南市低碳城市自治條例」,並在未來規劃對大建築面積、及用量超過800千瓦之用戶,要求必須裝置一定比例太陽光電系統的強制規定。該條例同時要求公有、及供公眾使用的建築物,須為銀級以上綠建築之規定,亦在近日吸引了媒體的關注。 貳、重點說明 一、臺南市政府低碳城市自治條例 台南市政府於2012年12月22日以府法規字第1011084760A號令公布了「台南市低碳城市自治條例」,共六章、三十八條,並於第四章「低碳城市推動與管理」,做了前述對耗電大的用戶為一定比例太陽能光電系統設置要求之規範。 在綠建築的部分,依據該條例第21條第1款之規定,台南市公有或經該市公告指定地區之新建建築物於申請建造執照時,若非供公眾使用之建築物,須為合格級以上之綠建築。而公有及供公眾使用之建築物,則須進一步符合為銀級以上之綠建築。此策略採取賦予公部門較高的法規遵循義務,與國外立法例趨勢相當吻合。詳述如下。 參、事件評析 一、國外立法例 (一)從一定面積以上面積建築著手 根據自由時報的報導,台南市政府在未來將針對大建築面積用戶,強制其裝設用電量一定比例的太陽光電系統。關於面積的細部規範雖然未見於該市低碳自治條例,但此一規劃無疑符合國際間為提高節能效率所採取的規範趨勢。 例如美國在2007年能源獨立及安全法架構下,由總統在2009年所發佈的行政命令第13514號的第2條第g項第3款,即要求確保既有聯邦建築或聯邦機構(agency)所承租之建築,面積超過5000平方英呎者,應在財政年度2015年前,使其面積的15%完全符合「聯邦永續建築指導原則」(Federal Leadership in High Performance and Sustainable Building, 在該行政命令中簡稱 Guiding Principle)。 而新加坡也有類似的規範。根據該國「2008年建築管制(環境永續)規定」(Building Control《Environmental Sustainability》2008)第3條與第4條之規定,所有總樓板面積(gross floor area) 超過2,000平方公尺的建築之建設或有關總樓板面積超過2,000平方公尺既有建築之面積增建(increasing the gross floor area),或關於建築外殼或建築服務的提供、擴大或實質的改變,皆應至少達到依據建築環境永續規範(Code for Environmental Sustainability of Buildings)的綠色標誌積分(Green Mark scores) 50分。 (二)對公部門採取較民間更高標準 由前述關於南市低碳自治條例中關綠建築之規範可知,該市在為相關管制的規劃時,所採取的政策是讓公部門先承擔較高的法規遵循義務(在該條例第21條的規定中,公有建築物在申請建照時須符合銀級綠建築之標準,而不若一般非供眾使用之建築物,僅要求其須合格)。此種作法亦為國際間為引領民間部門推動節能減碳常見的法制政策規劃。 除了上述美國的規定也是先對公部門作要求外,歐盟能源指令第5條第1項也有類似之規範。該條款要求歐盟各會員國自2014年1月1日起,就其中央政府所擁有或佔有之面積超過500平方公尺之建築,每年應翻修總樓板面積的3%,使其至少符合建築效率指令(2010/31/EU, Directive on Energy Performance of Buildings)第4條關於最低建築能源效率(minimum energy performance requirements for buildings)之要求。 二、短評與小結 由上述介紹可知,台南市低碳自治條例,為促進節能減碳而採行諸如由一定面積以上建築物著手,並對公部門此取更高標準之規定皆與國際趨勢相符。無獨有偶,高雄市於去年通過的綠建築自治條例,也有類似規定。我國在各級地方政府皆能與國際接軌的共同努力下,能否在促進能源效率方面達成較歐美等先進國家更耀眼的成積,著實令人期待。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。