近來國際間許多國家投入智慧商業及智慧消費之發展,為兼顧保障個人資料權利前提下,鼓勵產業界從事商業創新,英國商務創新技術部(Department for Business, Innovation & Skills)於2013年7月宣布促成「Midata創新實驗計畫平台」(midata innovation lab),由英國政府、企業界、消費者團體、監管機構和貿易機構共同組成,此為示範性自律性組織,參與之業者/機構於應消費者要求(consumer’s request)情形下,將所擁有消費者資料,特別是交易資料(transaction data),以電子形式及機器易讀取形式(electronic, machine readable format)對「我的資料」(Midata)體系公開(release);並且,將可更便利消費者利用這些資料瞭解自己的消費行為,在購買產品和服務時可以做出更為明智的選擇。
英國商務創新技術部係於2011年4月,開始提出所謂「Midata計畫」:於「更好選擇;更好交易環境;提昇消費者權力」政策(Providing better information and protection for consumers),宣示推動「Midata計畫」,作為提昇資訊力量(power of information)重要策略。為積極推動,「Midata計畫」,並協助產業界能有更詳細遵循指引,於2012年7月公告「Midata政府產業諮詢報告」(midata: government response to the 2012 consultation),同年12月出版「Midata隱私影響評估報告」 (midata: privacy impact assessment report)。
為配合上述政策施行,由產業界、組織、政府機構所共同組成的「Midata創新實驗計畫平台」(midata innovation lab),已開始展開運作。此平台認為,近來越來越多實務情形證明,個人資料對於企業而言已被視為日漸重要的資產,並且未來將成為提供更個人化、多元化之產品服務之重要基礎。倘若能在確保消費者個人資料相關權利之前提下,促成產業界積極投入發展,以「我的資料(Midata)創新實驗計畫」為運作平台,對於企業所持有個人資料,兼顧企業與消費者原則共同獲益,將可因應趨勢取得商業先機。
以英國商務創新技術部規劃政策,前期試行推動先以「核心產業」(core sectors)(金融產業、電信產業、能源產業)為導入適用,待實施具一定成效後,將延伸推廣至其他產業領域(non-core sectors),而後也將由現行初期以產業自律性參與計畫模式,進展至以法令規範強制實施的階段。
本文為「經濟部產業技術司科技專案成果」
美國推動醫療器材「單一識別」(Unique Device Identification, UDI)系統已行之有年,藉由建立UDI系統,強化醫療器材錯誤回報(Adverse Event Report)以及上市後產品監督(Post-Market Surveillance)等相關資訊的流通,以保障病人的安全。2007年由美國國會所通過的《食品藥物管理法修正案》(Food and Drug Administration Amendments Act of 2007, FDAAA)第226項,修正《食品、藥物及化妝品法》(Federal Food, Drug, and Cosmetic Act , FD&C Act)新增第519項f款,提供美國食品藥物管理局(U.S. Food and Drug Administration, FDA)訂定「醫療器材單一識別系統」法規之法源基礎。另一方面,在美國國會的要求之下,FDA於2012年7月3日正式發布「醫療器材單一識別碼系統」規則草案,進行公眾預告與評論(Notice and Comment)程序。 FDA長期收集醫療器材產業、醫療社群、病人與消費者,以及產業專家之建議,而將這些建議呈現在規則草案內容中,目的在於減少廠商成本,並順利建置UDI系統,是故草案內容實採取某些公司實際使用的標準與系統經驗。FDA所發布的規則草案重點如下: 1.「單一識別碼」將分為「器材識別碼」(Device Identifier),包含特定器材的單一識別;「生產識別碼」(Production Identifier),包含器材的生產資訊。 2.將採取區分醫療器材風險程度之高低作為標準,分階段置入高風險的醫療器材的「單一識別碼系統」;低風險的醫療器材將有條件在部分或全部的規則中例外免除。 3.免除零售的非處方(Over the Counter)醫療器材適用此規範,係因這些器材尚有統一商品條碼(Universal Product Code, UPC)作為識別。 FDA宣稱,隨著系統的建置與規範的制定,絕大多數的醫療器材將必須具有統一的日期標準,包含標籤上的到期日;亦必須使UDI能夠容易閱讀,且能為系統自動識別與應用資料擷取技術,進一步成為全球UDI資料庫建置的標準。我國目前雖尚無UDI系統的相關法規範,但產業與主管機關已就相關議題進行討論,而FDA所發佈的規則草案之發展歷程,即可作為相關單位在制定法規之參考,藉此瞭解先進國家在此議題之發展,提早與先進國家之標準做接軌。
美國政府課責署重視NPE濫訴現象,並提出「patent monetization entities」概念近年專利蟑螂(Paten Troll)、非專利實施實體(Non-Practicing Entity, NPE)的興起,使得國際上智慧財產權的運用出現巨幅變化。美國政府、企業及學界皆認為專利蟑螂濫訴現象為亟待解決之課題,而相繼投入研究,並於近日陸續發表重要之研究報告。 繼今年(2012)8月,美國國會研究處 (Congressional Research Service)提出對抗專利蟑螂之研究報告後(“An Overview of the "Patent Trolls" Debate”)。隸屬國會的政府課責署(Government Accountability Office, GAO, 另譯審計總署)所資助的研究團隊,亦於杜克大學科技與法律評論(Duke Law & Technology Review)發表相關研究。研究團隊採取實證的研究方法,於2007年~2011年間,每年度隨機抽樣100家涉及專利訴訟的公司,總計抽樣500家公司。依據該項研究結果,去年(2011)由NPE所提起的專利訴訟,佔研究樣本的40%,相較於5年前的數據,成長幅度高達2倍。本項研究可歸納以下兩項要點: 1.專利訴訟主體的變化 由NPE為原告所提起的專利訴訟數量呈現極速成長;由企業為原告者則逐年下降;同為非專利實施實體之大學,其作為原告所提起之訴訟則未達1%。 2.訴訟並未進行實質審理 由NPE提起之訴訟,其目的在於獲取和解金或授權金,故絕大多數係申請作成即時判決(summary judgement),即當事人一致認為對重要事實不存在爭議,而向法官申請不為事實審理,僅就法律問題進行裁決。 就此,該研究團隊認為,NPE已成為專利制度,甚至係整體經濟之一環,故提出應以「patent monetization entities」取代過往NPE的稱呼,強調此類公司以專利授權或專利訴訟作為公司營利之來源,如此將更為貼切。
加拿大參議院交通與通訊委員會提出自駕與聯網車輛政策發展報告與建議2018年1月加拿大參議院交通與通訊委員會(Standing Senate Committee on Transport and Communications)向加拿大交通部提出「駕駛改革:技術與自駕車的未來(Driving Change : Technology And The Future Of The Automated Vehicle)」報告。 報告指出加拿大面臨自駕車可能遭遇之挑戰,並列出提供交通部發展自駕車策略之政策建議。 其中包含:建議加拿大應成立跨部會單位以整合全國自駕車政策、並整合各地方政府與傳統領域政府透過發展地區模型策略;交通部並應與美國合作,來確保自駕車輛於兩國間運行無障礙;交通部應發展自駕聯網車輛設計的車輛安全指南,指南中應指明製造商於發展、測試與布建自駕車的車輛應有的設計需求,該指南並應持續隨科技發展而更新。 加拿大政府並應立法授權隱私委員會主動調查與促使製造者遵循「個人資訊保護與電子文件法(Personal Information Protection and Electronic Documents Act)」的權力,並應持續評估聯網車輛的隱私相關規範之需求。 並應整合利益關係人發展聯網車輛管制框架,特別應包括隱私保護;並應監督自駕與聯網車輛技術競爭之影響,以確保車輛出租公司與其他的延伸市場可持續取得相關營業所需資訊;並應注重加拿大自駕車之測試與發展等對於就業之影響等。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。