CRADAs係研發合作契約(Cooperative Research and Development Agreements)之縮寫,為美國國家衛生研究院(National Institute of Health,NIH)與業界和學術界進行科學技術研究發展產學研合作時所簽訂之契約。基於美國國家衛生研究院投入相關領域技術發展之機關設置目的,其所屬之科學家們可以利用本身的科研資源,與業界或學術界共同合作促進保健藥品和原型(prototype)開發與產品進一步的商業化量產。此外,業界也可利用本身私部門的研發力量,介接在國家層級最先進的技術研究合作。
研發合作契約的目的是專為使政府設施、政府補助研發成果之智慧財產權,透過與私部門之產學研合作提供合作互動,以促進科學技術知識之發展轉化為具有市場價值之商業化用途。配合契約之簽署,針對研發合作之權利義務,美國國家衛生研究院另設置有科技發展合作中心(Technology Development Coordinator,TDC),作為研發合作早期階段進行磋商與諮詢之專業機構,以幫助瞭解和研擬適當內容的研發合作契約,並順利依法獲得相關主管機關之核准。
本文為「經濟部產業技術司科技專案成果」
隨著新冠肺炎(COVID-19)帶來的影響,以及自動駕駛車輛(Autonomous Vehicle,下稱自駕車,自動駕駛稱為自駕)應用情境發展,美國佛羅里達州(State of Florida,下稱佛州)自2021年07月01日起正式讓低速自駕貨車(Low-Speed Autonomous Delivery Vehicle)可於其境內道路上行駛。 美國佛州首先在其州法典(Florida Statutes)有關全州統一性之車輛定義中,新增低速自駕貨車之定義,即配備毋須人類駕駛之自駕系統,且非設計作為載客運輸之車輛;此外,其須符合聯邦法規法典(Code of Federal Regulation, CFR)定義中之低速車輛(Low-Speed Vehicle),且須配備頭燈、剎車燈、方向燈、尾燈、反光設備以及車輛識別號碼,但不適用於該州其他低速車輛相關限制法規。惟如相關規定有與國家公路交通安全管理局(National Highway Traffic Safety Administration,即NTHSA)另外採用之聯邦規範相衝突時,則依NTHSA採用之規範。 此外,在該州法典亦明示低速自駕貨車在其境內道路上行駛之限制與條件: 1.低速自駕貨車原則僅能在速限低於時速為35英里以下之道路或街道上行駛。(但如該道路與速限超過時速35英里者相交,亦不影響低速自駕貨車穿越該相交路口) 2.低速自駕貨車在以下特定情形,可於速限為時速45英里以下之道路或街道上行駛: (1)低速自駕貨車在該等路段不會連續行駛超過1英里,不過該等路段之管轄單位有權針對連續行駛超過1英里的部分裁量是否放寬限制。 (2)低速自駕貨車並非為了轉向目的而獨立地在右側車道上行駛。 (3)在低速自駕貨車行駛於兩線道的道路或街道上,且後方有5輛以上的車輛時,後方車輛倘若因超車而可能駛入對向車道,或可能導致其他非安全之情境下,低速自駕貨車可在有充分安全駛離之處,自該兩線道的道路或街道駛離至限為時速45英里以下之道路或街道,以利後方車輛得繼續行駛。 3.低速自駕貨車之所有人、其遙控系統(Teleoperation System)之所有人、遠端操作人員(Remote Human Operator)或前開人員之組合式,必須為低速自駕貨車投保符合州法典明文之自駕車相關保險。
英國上議院人工智慧專責委員會提出AI應用影響報告並提出未來政策建議英國上議院人工智慧專責委員會(Select Committee on Artificial Intelligence)2018年4月18日公開「AI在英國:準備、意願與可能性?(AI in the UK: ready, willing and able?)」報告,針對AI可能產生的影響與議題提出政策建議。 委員會建議為避免AI的系統與應用上出現偏頗,應注重大量資訊蒐集之方式;無論是企業或學術界,皆應於人民隱私獲得保障之情況下方有合理近用數據資訊的權利。因此為建立保護框架與相關機制,其呼籲政府應主動檢視潛在英國中大型科技公司壟斷數據之可能性;為使AI的發展具有可理解性和避免產生偏見,政府應提供誘因發展審查AI領域中資訊應用之方法,並鼓勵增加AI人才訓練與招募的多元性。 再者,為促進AI應用之意識與了解,委員會建議產業應建立機制,知會消費者其應用AI做出敏感決策的時機。為因應AI對就業市場之衝擊,建議利用如國家再訓練方案發展再訓練之計畫,並於早期教育中即加入AI教育;並促進公部門AI之發展與布建,特別於健康照顧應用層面。另外,針對AI失靈可能性,應釐清目前法律領域是否足以因應其失靈所造成之損害,並應提供資金進行更進一步之研究,特別於網路安全風險之面向。 本報告並期待建立AI共通之倫理原則,為未來AI相關管制奠定初步基礎與框架。
世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。
日本垃圾電郵法制2005年修正動態