日本經濟產業省(以下簡稱經產省)為了落實安倍內閣提出之日本再興戰略,希望透過相關法制規範之調整,促進產業新陳代謝機制,並喚起民間的投資,進一步解決日本國內企業「過多限制、過小投資、過當競爭」現象,前於2013年10月15日將「產業競爭力強化法」提交國會審議。經日本國會審議後,該法已於同年12月6日公布,計有8章、共156條之條文,另有附則45條,並取代原先於2011年修正之產業活力再生特別措施法的功能。因產業競爭力強化法之內容屬政策性規範,搭配之施行細則、施行令等也陸續於2014年1月20日公布。
自產業競爭力強化法施行後,對於日本企業預計開發新產品和新技術等放寬限制,讓企業有機會進入與原業務不同之領域,並進行業務整編。舉例而言,依該法第9條第1項之規定:「欲實施新事業活動者依據主務省令規定,可向主務大臣提出要求,確認規定其欲實施之新事業活動及與其相關之事業活動的規範限制之法律和其所根據法律之命令規定的解釋,以及該當規定是否適用於該當新事業活動及與其相關之事業活動」之規定,就相關事業活動是否符合法令與否,向經產省申請解釋。
此一制度被稱為「灰色地帶消除制度」,目的在於使日本企業規劃新事業之前,可先洽主管機關瞭解該新事業活動涉及之業務是否合法,在經產省網站上已有SOP與申請表格可供參考。而此制度功能在於透過日本主管機關的闡釋、說明或認定相關計畫,讓有意從事創新活動的業者有如吞下定心丸,得以積極規劃、推動後續作業。
本文為「經濟部產業技術司科技專案成果」
2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
英國衛生部將建立之病歷資料庫挑動隱私保護議題之神經英國衛生部(Department of Health)於5月21日公布新的國家衛生政策,政策中指出,未來將建立資料庫,透過建設完善醫藥資訊之流通分享機制可改善對於病患之醫療服務以及促進學術研究之發展,當局承諾將採取適當之保護措施以妥善保護當事人之個人資料。然而,該政策同時亦承認對於病患資料匿名化之措施仍可能侵害當事人之隱私權。 當局指出,為了保護當事人之權益,將個人資料匿名化實屬必要,然而,對於醫療院所而言,縱使已經將個人資料匿名化,但透過其他相關資訊包含年齡、性別、血型、身高或者體重等,仍可能間接識別出當事人之個人資料。 衛生部重申建立資料庫分享當事人之個人醫療資料將可有效促進學術研究之發展,但將會透過當事人同意以及確實匿名化之機制保護當事人之個人資料。另外,衛生部於該政策中指出未來將要求英國之醫療機構必須於內部建立系統,使患者、當事人可有管道查詢其留存於資料庫之資料。 英國之隱私保護專員指出,由於此政策涉及敏感性個人資料之蒐集,所以其針對衛生部之政策規畫將持續關注,以確保當事人之隱私權。
美國藥品學會建議調整HIPAA隱私權規範以兼顧醫療研究及隱私保護隸屬美國科學院(National Academy of Sciences)之藥品學會(Institute of Medicine)於2009年2月4日發表一份研究報告,指出美國醫療保險可攜及責任法的隱私權規範(HIPAA, Privacy Rule),對於醫療研究中有關個人健康資訊之取得及利用的規定未盡周全,不僅可能成為進行醫療研究時的障礙,亦未能完善保障個人健康資訊。 在目前的規範架構下,是否允許資訊主體概括授權其資料供後續研究利用,並不明確;另外,在以取得資料主體之授權為原則,例外不需取得授權但必須由審查委員會判斷其妥適性的情況下,亦未有足夠明確的標準可資審查委員會判斷依循,此些問題不僅使得醫療研究中之資料取得及運用,產生若干疑慮,亦突顯個人相關健康資料保護之不足。 該報告建議國會應立法授權主管機關制訂一套新的準則,將個人隱私、資料安全及資訊運用透明化等標準,一體適用於所有醫療相關研究的資料取得及利用上;在未來的新準則中,應促進去名化醫療資訊之運用,同時對於未取得資料主體授權的資料逆向識別(re-identification)行為,應增設罰則;此外,審查委員會在判斷得否不經資料主體授權而以其資料進行研究之妥適性時,亦應納入道德考量因素,倘若研究係由聯邦層級的組織所主導,則研究團隊應先證明其已採取充分保護資料隱私及安全的措施,藉以平衡隱私權保護與醫療研究的拉鋸。
歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。