人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。
AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。
「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點:
一、 資料側寫之公平性與透明性(fairness and transparency in profiling);
二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性;
三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策;
四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險;
五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性;
六、 資料最少化與目的限制(data minimization and purpose limitation);
七、 資料當事人之權利行使(exercise of rights);
八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。
ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。
美國衛生及公共服務部(Department of Health and Human Services, HHS),於2020年6月16日提出「曲速行動(Operation Warp Speed)」,目標是在2021年1月前,提供3億劑具安全有效性的COVID-19疫苗,給所有美國人民使用。參與行動的政府夥伴,包括國家衛生研究院(National Institutes of Health, NIH)、食品藥品監督管理局(U.S. Food and Drug Administration, FDA)、疾病預防管制中心(Centers for Disease Control and Prevention);與多家製藥公司包含嬌生、默克、輝瑞、Moderna、AstraZeneca等,簽訂研究製造及保證收購疫苗的競爭型補助協議,直接由政府需求主導疫苗藥劑的研發、生產與銷售,藉此滿足國家防疫的戰略需求。 曲速行動為政府部門及公私夥伴間的合作計畫,依據美國國會通過《新冠病毒援助、救濟和經濟安全法》(Coronavirus Aid, Relief, and Economic Security, CARES Act),計畫補助資金達100億美元,其中超過65億美元用於生物醫學高階研究和發展管理局(Biomedical Advanced Research and Development Authority, BARDA),30億美元用於NIH研究。公私夥伴合作項目包括:「加速研發新冠病毒藥物及疫苗計畫」(Accelerating COVID-19 Therapeutic Interventions and Vaccines, ACTIV)、「快速診斷技術計畫」(Rapid Acceleration of Diagnostics Tech program, RADx)等。 曲速行動從100多種疫苗中先行選出14種候選疫苗,由美國政府補助,進行早期臨床實驗,再分次篩選出最具潛力者,進行大規模檢測。透過公私夥伴合作,不僅成功帶動製藥廠商積極研發,也協助候選廠商間彼此競爭、提升製藥能力,進一步反饋研究經驗給最終產出的疫苗成果。
新加坡交易所(SGX)正式推出SPAC上市框架由新加坡政府基金淡馬錫(Temasek)支持的「特殊目的收購公司」(Special Purpose Acquisition Company, SPAC)「Vertex Technology Acquisition Corp.」已於2022年1月20日在新交所掛牌上市,為首家在新加坡上市之SPAC。後續還有由國際發起人發起的「 Pegasus Asia」已於2022年1月21日上市,以及由新加坡基金 Novo Tellus Capital Partners 設立之「Novo Tellus Alpha Acquisition」於2022年1月27日上市。 由於美國2020年、2021年已有許多欲上市之公司採用SPAC制度上市,同時在美國紐約證券交易所(NYSE)及那斯達克(Nasdaq)均獲得巨大的成功,因此各國交易所開始摩拳擦掌,紛紛著手修正上市規則允許SPAC制度以吸引優良企業。 新加坡交易所(SGX)最初於2021年3月底時發布SPAC上市框架諮詢文件,並於同年9月2日公布該諮詢文件之回覆意見及結論,並同時修正主板上市規則,允許SPAC於同年9月3日在新加坡主板上市。 SGX說明超過80名受訪者(包含金融機構、投資銀行、私募股權和風險投資基金、企業、一般投資人、律師、會計師和其他利益相關者)回覆SPAC上市框架諮詢文件,該回覆率為近年來之最高,可見SPAC制度之熱潮。 新加坡SPAC上市框架規定SPAC公司須符合以下條件: SPAC公司須至少擁有1.5億新加坡幣市值; SPAC公司須於IPO後24個月內完成收購未上市公司,僅於符合特定條件下最多再延長12個月; SPAC公司收購未上市公司時,需經過50%以上獨立董事同意及50%以上獨立股東同意; 所有獨立股東均享有異議股東股份收買請求權; 贊助人需至少認購IPO發行股份/認股權證總額之2.5%-3.5%(具體比例將依據SPAC公司市值判斷) 於IPO後至SPAC公司收購未上市公司前,禁止贊助人讓售所持有之股份 後續新加坡SPAC發展及併購值得繼續觀察。
猴子自拍照著作權爭議;美國法院:動物無法擁有著作權2015年1月6日,美國聯邦地區法官裁定,猴子用照相機自拍,猴子無法取得自拍照的著作權。 英國攝影師Slater在四年前,讓黑冠猴Naruto使用其相機,成功的拍出了罕見的黑冠猴自拍照;而攝影師Slater後來把這些自拍照收錄在出版書中,並同時在網路上公開,並獲得廣大迴響。但之後維基百科(Wikipedia)收進免費圖片資源中,供大眾免費下載使用,Slater認為則認為這些照片的著作權已經被英國官方認可屬於Slater所開設的公司,此認可應適用於全世界。惟美國著作權局在2014年最新政策中,認為著作權登記僅適用「人類作品」,據此Naruto之自拍照並不受著作權保障。 而善待動物組織PETA(People for the Ethical Treatment of Animals)組織也加入了著作權爭奪戰局,其認為由Naruto所拍攝自拍照,其著作權應屬於Naruto,但由於Naruto不懂如何行使權利,故由PETA代為管理著作權,相關收益均會用於保護黑冠猴,並且向舊金山聯邦法院提出告訴。美國聯邦法院則在2016年1月6日判決,目前著作權法仍未將保護範圍擴張至動物作品上,故Naruto並未擁有該自拍照著作權,自無PETA代掌著作權可能;PETA接獲判決後表示會提出上訴。
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。