美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則:
一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。
二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。
三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。
四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。
五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。
六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。
七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。
八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。
九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。
十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。
本文為「經濟部產業技術司科技專案成果」
今(2011)年3月中旬,印度製藥業者代表及相關非政府組織團體共同對外表示,就印度與歐盟即將簽署之自由貿易協議(Free Trade Agreement;簡稱FTA),將正式採取反對之立場。 關於上述印度製藥業者代表及非政府組織團體之所以表示反對歐-印兩國簽署FTA之理由,其主要,乃係因歐盟方面為保障歐盟自身製藥業者本身之利益而擬於日後雙方將所簽署之FTA文件中,設置「資料專屬」條款而生;對此,代表印度境內多家藥廠之印度製藥協會(Indian Pharmaceutical Alliance)秘書長Dilip Shah表示:「目前歐盟方面正利用各種高壓與不正之手段,來迫使印度政府同意其擬置入之資料專屬保護條款」;但歐盟官員John Clancy卻解釋:「歐盟政府之所以擬於將簽訂之FTA中設置資料專屬條款,所寄望者,無非是要為歐盟境內製藥業者,尋求一個平等互惠之立基點而已;換言之,歐盟政府所為之一切,乃是基於要為印度與歐盟兩國業者打造一個公平合理之貿易商業環境」,另外,其還強調:「針對資料專屬條款之簽訂,原則上應在雙方達成共識之前提下進行」。 雖然歐盟方面目前已嘗試作出如上解釋,但印度國內各界似仍普遍認為,一旦同意將資料專屬條款納入,未來除將嚴重影響廣大用藥病患近用低價救命藥品之權益外,亦將大幅限制新興國家產製學名藥品之能力;故包括HIV病患及其他印度民間團體共計超過2000名抗議者,於今年3月2日時,皆紛紛走上新德里市中心街頭,對歐-印即將簽署FTA表達其強烈之抗議與不滿;足見,該項條款將造成之實質影響,絕非歐盟單方三言兩語即可輕描淡寫地帶過;而最終之談判結果,是歐盟方面將作出合理之讓步?還是印度方面為挽最大貿易夥伴之心,而終以犧牲廣大病患及國內製藥業者權益來作為可能之對價?是破局?還是完滿結局?則皆有待後續觀察,方見分曉。
聯合國教科文組織發布《人工智慧倫理建議書》草案聯合國教科文組織於2020年9月發布《人工智慧倫理建議書》草案(First Draft Of The Recommendation On The Ethics Of Artificial Intelligence)(下稱建議書),以全球性的視野與觀點出發,為第一份全球性關於人工智慧倫理的建議書,試圖對人工智慧倫理作出框架性規定,對照其他區域性組織或個別國家人工智慧倫理準則或原則,著重之處稍有差異。該建議書係由組織總幹事Audrey Azoulay於2020年3月任命24位在人工智慧倫理學方面之跨領域專家,組成專家小組(AD HOC EXPERT GROUP, AHEG),以《建議書》的形式起草全球標準文書。 其主要內容提到六大價值觀:(一)人性尊嚴(Human dignity)、(二)基本人權和自由(Human rights and fundamental freedoms)、(三)不遺漏任何人(Leaving no one behind)、(四)和諧共生(Living in harmony)、(五)可信賴(Trustworthiness)、(六)環境保護(Protection of the Environment)。其中尤值關注處在於,建議書除強調人工智慧的技術、資料及研究需要進行全球範圍的共享外,相當重視世界上所有的國家及地區在人工智慧領域是否能均衡發展。特別在六大價值觀中提出「不遺漏任何人」觀點,也同時呼應了聯合國永續發展目標(Sustainable Development Goals, SDGs)的倡議。在人工智慧技術發展過程中,開發中國家(global south)及相對弱勢的群體是相當容易被忽略的。人工智慧蓬勃發展的時代,若某些群體或個體成為技術弱勢者,不僅在技術發展上有落差,更可能使人工智慧系統容易產生歧視、偏見、資訊和知識鴻溝,其後更將導致全球不平等問題的挑戰。 由專家小組起草的建議書草案已於2020年9月提交給聯合國成員國,作為對建議書的初步報告。該報告將提供給各會員國,並同步提交給預定於2021年召開的政府專家委員會,最後預計於2021年底的提交聯合國教科文組織大會。
精神衛生法強制住院侵害身心障礙者自由權-身心障礙者權利公約初次國家報告國際審查本文從我國身心障礙者權利公約(以下簡稱身權公約)初次國家報告國際審查結論性意見中,精神衛生法強制住院違反公約規定的評價出發,盤點身權公約對身心障礙者人身自由保護之規範內容,並將其與我國精神衛生法相關規定比較,認為現行規定及研擬中的修法方向皆確有違反身權公約之嫌。本文最後建議,在國際人權公約逐步完成內國法化程序的背景下,我國科學與科技相關法制例修法時,應注重相關人權公約的規範。
美國FDA發布保密證書指引草案,可防止研究人員被迫揭露研究參與者可識別個人之敏感性資料美國FDA(Food and Drug Administration)於2019年11月22日發布「保密證書(Certificates of Confidentiality, CoC)」指引草案。保密證書之目的在於防止研究人員在任何聯邦、州或地方之民事、刑事、行政、立法或其他程序中被迫揭露有關研究參與者可識別個人之敏感性資料,以保護研究參與者之隱私。保密證書主要可分為兩種,對於由聯邦所資助,從事於生物醫學研究、行為研究,臨床研究或其他研究,於研究時會收集可識別個人之敏感性資料之研究人員而言,保密證書會依法核發予該研究人員,稱為法定型保密證書(mandatory CoC);而對於從事非由聯邦所資助之研究的研究人員而言,原則上保密證書不會主動核發予該研究人員,惟當研究涉及FDA管轄之產品時,可由FDA自行裁量而核發保密證書,稱為裁量型保密證書(discretionary CoC),本指引草案旨在提供裁量型保密證書之相關規範。 FDA建議裁量型保密證書之申辦者先自問以下四個問題,且所有問題之答案應該皆為肯定:(1)申辦者所參與之人體研究是否收集可識別個人之敏感性資料?(2)申辦者是否為該臨床研究之負責人?(3)申辦裁量型保密證書之人體研究是否涉及受FDA管轄之產品的使用或研究?(4)申辦者之研究措施是否足以保護可識別個人之敏感性資料之機密性? 於FDA完成審查後,將向申辦人傳送電子回覆信件,表明是否核准裁量型保密證書。若結果為核准,則該電子回覆信件即可作為保密證書。該保密證書之接受者應執行法律所規定以及FDA於電子回覆信件中所要求之保證事項,以保護人體研究參與者之隱私。