歐盟布魯塞爾會議規劃組織(QED)在2016年12月針對第四次工業革命法制議題提出討論,呼應2016年4月歐盟執委會提出之歐洲產業數位化政策,加速標準建立,並且預計調整現行法律規制,著重於資料所有權、責任、安全、防護方面等支規定,討論重點如下:
1.目前面臨之法律空缺為何
2.歐洲產業數位化是否須建立一般性法律框架
3.標準化流程是否由由公部門或私部門負責
4.相容性問題應如何達改善途徑
5.資料所有權部分之問題如何因應
6.數位化之巨量資料應如何儲存與應用,雲端是否為最終解決方式
7.如何建立適當安全防護機制。
8.一般資料保護規則是否足以規範機器產生之數據
9.各會員國對於資料保護立法不同,其間如何調合朝向資料自由發展之方向進行
我國2016年7月由行政院通過「智慧機械產業推動方案」,期待未來朝向「智慧機械」產業化以及產業「智慧機械化」之目標進行,未來,相關法制配套規範,如個人資料保護、巨量資料應用、以及標準化等議題,皆有待進一步探討之必要。
本文為「經濟部產業技術司科技專案成果」
FCC經過討論與投票,正式發佈命令將電力線寬頻上網服務分類為跨州資訊服務(interstate information service),而非電信服務,其他寬頻上網科技包括DSL、有線電纜線數據機寬頻上網亦被FCC分類為資訊服務。 過去幾年來,FCC一直大力支持電力線寬頻上網服務,期望電力線寬頻上網服務可以進入寬頻服務市場,與DSL和有線電視纜線數據機寬頻上網服務競爭,以增加寬頻服務市場之競爭,提高美國之寬頻普及率。而就此次所發佈之命令,FCC認為,將電力線寬頻上網分類為資訊服務將可使電力線寬頻上網服務受到較低的管制,有助於達成隨時隨地提供所有美國民眾寬頻接取之目標。其次,FCC在數位匯流時代之管制乃是期望能對於各種不同技術之寬頻接取平台給予一致的管制措施,並且對於相同之服務採取相同的管制方式。基於上述原因,FCC此次將電力線寬頻上網分類為資訊服務並不讓人感到意外。 FCC主席Kevin J. Martin進一步在其聲明中表示,雖然目前電力線寬頻上網人口並不多,然在2005年其成長率卻將近200%,顯見電力線寬頻上網服務之市場潛力不容忽視,將可幫助達成美國總統定下於2007年底前隨時隨地提供全國民眾寬頻網路接取之目標。
WTO歐盟生技產品案解析(上) 日本經產省公布AI、資料利用契約指引伴隨IoT和AI等技術發展,業者間被期待能合作透過資料創造新的附加價值及解決社會問題,惟在缺乏相關契約實務經驗的狀況下,如何締結契約成為應首要處理的課題。 針對上述狀況,日本經濟產業省於2017年5月公布「資料利用權限契約指引1.0版」(データの利用権限に関する契約ガイドラインVer1.0),隨後又設置AI、資料契約指引檢討會(AI・データ契約ガイドライン検討会),展開後續修正檢討,在追加整理資料利用契約類型、AI開發利用之權利關係及責任關係等內容後,公布「AI、資料利用契約指引草案」(AI・データの利用に関する契約ガイドライン(案)),於2018年4月27日至5月26日間公開募集意見,並於2018年6月15日正式公布「AI、資料利用契約指引」(「AI・データの利用に関する契約ガイドライン)。 「AI、資料利用契約指引」分為資料篇與AI篇。資料篇整理資料契約類型,將資料契約分為「資料提供型」、「資料創造型」和「資料共用型(平台型)」,說明個別契約架構及主要的法律問題,並提示契約條項及訂定各條項時應考慮的要點,希望能達成促進資料有效運用之目的。 AI篇說明AI技術特性和基本概念,將AI開發契約依照開發流程分為(1)評估(assessment)階段;(2)概念驗證(Proof of Concept, PoC)階段;(3)開發階段;(4)進階學習階段,並針對各階段契約方式和締結契約時應考慮的要點進行說明,希望達成促進AI開發利用之目的。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。