「蛋白質體學」是醫學研究的新領域,透過對「蛋白質變異」的研究來瞭解疾病的機制,現在已經可以成功診斷出許多疾病。不過,因為血液中跟疾病有關的「標記蛋白質」,含量往往很低;傳統「酵素免疫法」( ELISA )的檢測流程總得進行個大半天,往往造成時間的浪費。
中央研究院發表獨步全球的「磁性奈米粒子」質譜驗血技術,只要使用小學生使用的磁鐵,就可以迅速「大海撈針」,從血液中吸出和SARS、癌症、中風等病症相關的標記蛋白質,可以在一小時內診斷病情。這項研究成果正在申請國內外專利,臨床實驗、認證後,民眾未來只要多花幾百塊錢,就能夠享受這項最新的奈米科技。不管胃癌、乳癌或大腸癌,只要 ELISA 能夠檢測的項目,這套技術都可以更有效率地完成。不過因為「質譜儀」價格昂貴,臨床運用又需相關認證,普及化可能還得再等一段時間。
本文為「經濟部產業技術司科技專案成果」
德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。
簡析德國自動駕駛與車聯網發展策略 美國參議院通過《兒童網路隱私保護法》與《兒童網路安全法》,有望加強兒少網路安全保護力道在數位時代,兒童及青少年長時間使用網際網路已成為生活常態,然而,兒少在高度使用社群媒體的同時,也透過演算法大量獲取諸如飲食失調、自殘等「有毒內容」(toxic content)。在享受網路便利性的同時,兒少也面臨遭受騷擾、霸凌,被迫轉學甚至輕生等困境,心理健康面臨危機。為解決前揭問題,美國參議院於2024年7月30日通過《兒童網路隱私保護法》(Children’s Online Privacy Protection Act, COPPA)修正法案及《兒童網路安全法》(Kids Online Safety Act, KOSA)之立法,加強兒少網路安全之保護。 COPPA早於1998年制定,並於2000年開始施行,該法案對於網路營運商蒐集未滿13歲兒童之個人資料相關隱私政策訂有規範,惟自訂定後迄今約25年,均未因應時代變遷做出調整,終於在本次會期提出修正草案。另KOSA之立法重點,則在於要求網路平台業者對兒童預設提供最高強度隱私設定,並建立控制措施,提供父母保護子女及認知到有害行為的機制,課予網路平台業者預防及減輕兒童陷於特定危險(如接收宣傳有毒內容之廣告)之義務等。此二法案經參議院投票通過後,合併為一案送交眾議院審核,重點說明如下: 1.將網路隱私保護主體擴張至未滿13歲之兒童及未滿17歲之青少年(下稱兒少),禁止網路平台業者在未經兒少使用者同意情況下,蒐集其個人資料。 2.禁止網路平台業者對兒少投放定向廣告(targeted advertising)。 3.為保護「合理可能會使用(reasonably likely to be)」網路平台的兒少,調整法案適用的「實際認知(actual knowledge)」標準,將適用範圍擴及至「合理可能被兒少使用(reasonably likely to be used)」的網路平台。 4.建立「清除鈕(eraser button)」機制,使兒少及其父母得以要求網路平台業者在技術可行情況下,刪除自兒少所蒐集之個人資料。 5.要求商務部(the Secretary of Commerce)於新法頒布後180日內,應成立並召集兒童網路安全會議(Kids Online Safety Council),進行包含識別網路平台對兒少造成危害之風險,提出相關評估、預防及減輕危害之建議措施及方法、進行與網路對兒少造成危害相關主題之研究等業務。 觀本次可謂美國對於兒少網路保護之重大進展,惟此法案後續是否能順利提請總統簽署成法,正式具約束效力,仍須持續關注眾議院未來動向。
英國數位、文化、媒體暨體育部發布資料道德與創新中心公眾諮詢英國數位、文化、媒體暨體育部(Department for Digital, Culture Media & Sport, DCMS)於2018年6月13日發布有關資料道德與創新中心(Centre for Data Ethics and Innovation)之公眾諮詢,本次諮詢將於2018年9月5日截止。 在資料使用與人工智慧皆快速發展且對生活模式產生重大改變之背景下,英國政府認為企業、公民以及公部門對於資料及人工智慧的安全及道德創新都需要有明確規範以資遵循,以因應該領域快速發展而生的問題。為此,英國政府欲新建一個資料倫理與創新中心,該中心本身並不會對於資料及人工智慧的使用作出規範,主要係通過吸收各界的經驗及見解,統整這些經驗或見解並轉化為對政府現行監管方面缺陷之建議,該中心具有獨立諮詢之地位(independent advisory status),提供政府對資料及人工智慧相關議題之治理建議。 諮詢文件內指出中心作用及目標旨在提供政府政策指導,並與監管機構、研究機構、公民社會密切合作,以制定正確的政策措施;對於中心的活動及產出,政府認為中心可進行對於資料及人工智慧的分析及預測,並擬定最佳實務作法(如開發有效及合乎道德的資料及AI使用框架),進而向政府提供有助資料及人工智慧之安全及道德創新發展的相關建議。 本次公眾諮詢主要針對資料道德與創新中心之營運方式及重點工作領域徵詢意見,所提出問題大致上包括是否同意中心目前的職責及目標?中心該如何與其他機構進行合作?中心應採取哪些行動?是否同意目前建議的行動類型?中心需要哪些法定權力?中心如何向政府提交建議?是否應將中心提交之建議向大眾公開? 我國行政院於今(2018)年1月18日提出為期4年之「台灣AI行動計畫(2018-2021)」,計畫內容之五大重點為:(1)AI領航推動;(2)AI人才衝刺;(3)建構國際AI創新樞紐;(4)創新法規、實證場域與資料開放;(5)產業AI化,其中,第4點細部內容提及將建立高資安防護及親善介面之資料開放與介接平台,顯見我國政府正全力推動AI發展,亦對資料開放相關議題頗為重視。是以,英國資料道德與創新中心之發展在未來我國推動AI普及與產業AI化之進程上,似可提供我國參考方向,以健全AI發展之法制環境。