美國歐巴馬總統於2013年5月9日正式簽署「促進政府資訊開放並利機器讀取」行政命令(Executive Order 13642–Making Open and Machine Readable the New Defaut for Government Information),推崇聯邦政府過去釋出氣候、全球定位系統(GPS)等資訊對於私部門產業創新及新創事業(entrepreneurship and star-up)之正面影響,盼未來所有新增加的政府資料在資訊安全和隱私權雙重確保之前提下,將開放以可供機器可讀取之格式給公共大眾,帶動整體經濟正面循環發展。之前,美國推動聯邦政府資料開放政策,重要者為白宮科學技術政策辦公室(Office of Science and Technology Policy, OSTP)於2009年3月份啟動「開放政府倡議」(Open Government Initiative),民眾可透過「Data.gov」入口網站 ,取得高價值、機器可讀取之聯邦政府資料。
近年來,在公部門政府政策鼓勵導引下,不同的產業也逐漸發展出適用於特定產業的共同互通性標準(sectoral interoparability)。以醫療衛生領域為例,從2010年開始,歐巴馬總統乃宣布「藍色按鈕倡議」(Blue Button Initiative),病患得透過特定網頁(web-based)簡易下載其健康資訊(health information),並可供重複利用的格式下;同時,患者也可以選擇將該資訊分享給健康照護提供者(health care provider)、保險公司和信任的第三者(trusted third parties)。該倡議更挑戰軟體開發者(developer)在藍色按鈕的基礎上,開發更多的Apps軟體,使當事人更容易去管理掌控自身健康的狀況。在能源科技領域,近似於藍色按鈕倡議,白宮幕僚科技長Aneesh Chopra於2011年9月,也發起了「綠色按鈕倡議」(green button initaitive),挑戰美國境內大小事業單位(utilities)投入參與該倡議,研發一個機器可讀取之開放格式(a machine-readable open format),使消費者得透過連線網路重複近取之。
有鑒於網際網路開放的特性,且近年來來自外國網路攻擊不斷,於2013年2月份,NIST與國際間重要標準組織,如ISO、IEC和IEEE,首度就感應網絡(sensor networks)、機器對機器(M2M)和智慧聯網(IoT),提出一個跨界面之共通標準計畫(ISO/IEC/IEEE P21451-1-4 XMPP),該共通標準計畫內容包含: 封包傳輸(檢測)、全球獨特辨識、政策控制和加密,此共通標準得確保未來巨量資料領域資料近取之安全性 。
歐盟理事會(Council of the European Union)於2022年5月16日正式通過了資料治理法(Data Governance Act, 簡稱DGA),本法是歐盟執委會(European Commission)於2020年11月提案,經過一年多的意見徵詢與協商,歐盟議會(European Parliament)於今(2022)年4月6日以501票贊成通過,隨後由歐盟理事會通過公布,本法預計將於2023年8月正式生效。 DGA包含幾大面向,除了針對資料中介服務(data intermediation)、資料利他主義(data altruism)、歐盟資料創新委員會(European Data Innovation Board)等機制建立的規定外,在第二章特別針對公部門所持有之特定類別資料的再利用(reuse)進行規定。當公部門持有的資料涉及第三方受特定法律保護的權利時(如涉及第三方之商業機密、智慧財產、個資等),本法規定公部門只要符合特定條件下可將此類資料提供外界申請利用;若為提供符合歐盟整體利益的服務且具有正當理由和必要性的例外情況下,得授予申請對象專有權(exclusive rights),但授權期間不得超過12個月;歐盟應以相關技術確保所提供資料之隱私和機密性。 再者,各會員國應指定現有機構或創建一個新機構擔任提供上述資料類型的單一資訊點(Single Information Point, SIP),以電子方式公開透明地提供資料清單,包含可申請利用之資料的來源及相關描述(至少包含資料格式、檔案大小、再利用的條件等),以提供中小企業、新創企業便利、可信的資料查詢管道。此外,歐盟執委會應建立一個單一近用點(Single Access Point, SAP),提供一個可搜尋公部門資料的電子登記機制(a searchable electronic register of public-sector data),讓使用者得直接搜尋各會員國單一資訊點(SIP)中所提供的資料及相關資訊。 DGA是歐盟2020年2月發布歐盟資料戰略(European Data Strategy)後的第一個立法,歐盟希望透過本法建立一套能提升資料可利用性和促進公私部門間資料共享的機制,以創造歐盟數位經濟的更高價值。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
日本個人資料保護委員會發布「禁止不當利用」與「停止利用」論點資料作為將來發布指引參考日本為因應去年6月通過「個人資料保護法」之修正(下稱「新法」),個人資料保護委員會於2021年2月19日第166次會議議題「禁止不當利用與停止利用之完備指引論點」(改正法に関連するガイドライン等の整備に向けた論点について(不適正利用の禁止・利用停止等)),公開兩份論點資料,作為將來發布指引之參考,並使企業等關係者在新法實施準備期間,得採取適當措施以達到法遵要求。 新法第16條之2「禁止不當利用」,旨在防止不當利用個人資料致本人權益受損。於「禁止不當利用之論點資料」指出具體要件有(1)「違法或不當行爲」,係指違反個人資料保護法及其他法令之行爲,或有違公序良俗,在社會觀念上非屬正當之行為;(2)「助長或誘發之危害」,在認定上將限縮在以業者提供時有認識第三方將違法利用個人資料,並可預見提供個人資料將受違法利用之情形,以免造成寒蟬效應。若第三方刻意隱瞞取得目的,即使已盡相當注意仍不能預見違法利用之情形,則非屬「危害」。 新法第30條第5項擴大「停止利用」請求權範圍,於「停止利用之論點資料」指出適用要件有(1)「個人資料處理業務已無利用個人資料之需要」,即個人資料利用目的已消失或該事業已中止時;(2)「發生第22條之2第1項本文情形」,係指發生資料外洩依規定須報告委員會之情形;(3)「可能損害本人權益時」,係指依法受保護之正當權益有受損可能為必要。另論點指出請求停止利用必須在「為防止本人權益受損必要限度內」,故業者對於超出必要限度之部分得拒絕之。而對於停止利用所費不貲或顯有重大困難之情形,得依個案具體考量採取適當替代措施。
德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。
英國股權式群眾募資簡介-以近期監管規則發展為中心