經過一年以上的準備,行政院科技顧問組六日宣布啟動「生醫科技島計畫」計劃。自今年起以五年投入一百五十億元預算,建立「國民健康資訊基礎建設整合建置計畫( NHII )」、「台灣人疾病及基因資料庫( Taiwan Biobank )」、及「臨床試驗研究體系」三大重點。未來除了減少健保成本一百億元以上,也希望協助業界創造數百億元市場商機。
生醫科技島計畫為國內所帶來的效益方面, NHII 將可減少醫療支出三%,共一百億元規模,至於促進民間投資及產業升級方面,預期五年內可帶動民間及政府投資四百億元以上;至於 Taiwan Biobank 方面,除了領先新加坡及中國大陸建立華人特定族群基因資料庫的供給中心,更可帶動國內的新藥開發、基因治療、藥物副作監測,及疾病篩檢及防治等醫藥發展。
行政院科技顧問組指出,其中 Taiwan Biobank 計劃因為涉及「科技對倫理、法律及社會( ELSI )」等議題有較多社會疑慮,將根據現有的醫事法及立法院正進行三讀的個人資料保護法立法精神,預計今年先進行五千人基因資料蒐集,待兩年後正式的基因資料保護相關法律定出新法後,將會加速完成二十萬人的資料蒐集。
本文為「經濟部產業技術司科技專案成果」
在民眾越來越依賴行動裝置的應用程式進行日常活動的年代,諸如通訊、導航、購物、娛樂、健康監測等,往往要求訪問更廣泛的資料和權限,使得應用程式相較於網頁,在資料安全與隱私風險上影響較高。對此,法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)於2024年9月發布針對應用程式隱私保護建議的最終版本,目的為協助專業人士設計符合隱私友好(privacy-friendly)的應用程式。該建議的對象包含行動裝置應用程式發行者(Mobile application publishers)、應用程式開發者(Mobile application developers)、SDK供應商(Software development kit, SDK)、作業系統供應商(Operating system providers)和應用程式商店供應商(Application store providers),亦即所有行動裝置生態系中的利害關係者。以下列出建議中的幾項重要內容: 1. 劃分利害關係者於手機生態系中的角色與責任 該建議明確地將利害關係者間作出責任劃分,並提供如何管理利害關係者間合作的實用建議。 2. 改善資料使用許可權的資訊提供 該建議指出,應確保使用者瞭解應用程式所請求的許可權是運行所必需的,並且對資料使用許可的資訊,應以清晰及易於獲取的方式於適當的時機提供。 3. 確保使用者並非受強迫同意 該建議指出,使用者得拒絕並撤回同意,且拒絕或撤回同意應像給予同意一樣簡單。並再度強調應用程式僅能在取得使用者知情同意後,才能處理非必要資料,例如作為廣告目的利用。 此建議公布後,CNIL將持續透過線上研討會提供業者支援,協助其理解和落實這些建議。同時,CNIL表示預計於2025年春季起,將對市面上應用程式實行特別調查,透過行政執法確保業者遵守相關隱私規範,尤其未來在處理後續任何投訴或展開調查時,會將此建議納入考慮,且會在必要時採取糾正措施,以有效保護應用程式使用者的隱私。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} .Psrc{text-align: center;}
CAFC判決未遵守自由授權條款構成著作權侵害美國聯邦巡迴上訴法院(CAFC)於2008年8月13日,在Jacobsen v. Katzer一案中,對於未遵守自由軟體授權條款而使用他人著作,作成構成著作權侵害之判決,扭轉地方法院之判決結果。由上訴人Jacobsen經營的JMRI(Java Model Railroad Interface),透過多數參與者集體協作的程式DecoderPro,為開放資源的自由軟體,採取Artistic License模式,供模型火車迷編輯解碼器晶片(decoder chip)的程式以操控模型火車;被告Katzer從 DecoderPro下載了數個定義檔來製作一套市售軟體稱Decoder Commander,卻未遵守該自由授權條款,包括未標示JMRI為原始版本之著作權人、可從何處取得標準版本、及修改後版本與原始版本差異部份之註記等。 Jacobsen認為Katzer的侵害著作行為已造成不可回復之損害,請求法院暫發禁止命令(preliminary injunction)以停止Katzer的違法行為,地方法院認為被告乃違反非專屬授權契約,應依違反契約責任負責,不另構成著作侵權行為,駁回暫發禁止命令的請求。 聯邦巡迴上訴法院認為本案爭點在於「自由軟體授權條款的性質究屬契約內容(covenant)或授權條件(conditions of the copyright license)?」,由於Artistic License之用語為「在符合下列條款之條件下」(provided that the conditions are met )方能重製、修改及散布,以遵守授權條款為取得授權之條件,本案中Katzer未能遵守條款,因而根本未取得授權,其行為屬無權使用而構成侵害著作權,是以命地方法院就暫發禁止命令一事重新審理。在善意換取善意(Creative Common,創用CC)及分享著作的潮流下,支持者譽此結果為自由軟體的一大勝仗。
美國加州「對話機器人揭露法案」美國加州議會於2018年9月28日通過加州參議院之對話機器人揭露法案(Bots Disclosure Act, Senate Bill No. 1001)。此一法案於美國加州商業及專門職業法規(Business and Professions Code)第七部(Division)第三篇(Part)下增訂了第六章(Part)「機器人」乙章,擬防範「利用對話機器人誤導消費者其為真人同時並誤導消費者進行不公平交易」之商業模式,本法案將於2019年7月1日正式生效。依此法案,企業如有使用對話機器人,則應揭露此一事實,讓消費者知悉自己是在與對話機器人溝通。 美國加州對話機器人揭露法案對於「機器人」之定義為全自動化之線上帳戶,其所包含之貼文、活動實質上並非人類所形成。對於「線上」之定義為,任何公眾所可連結上之線上網站、網路應用軟體、數位軟體。對於「人類」之定義為自然人、有限公司、合夥、政府、團體等其他法律上組織或擬制人格。如業者使用對話機器人進行行銷、推銷時,有揭露其為對話機器人之事實,將不被認定違反對話機器人揭露法案,但揭露之手段必須明確、無含糊且合理可讓消費者知悉其所對話之對象為非人類之機器人。值得注意者為,美國加州對話機器人揭露法案,針對「美國本土造訪用戶群在過去12月間經常性達到每月10,000,000人」之網站,可排除此規定之限制。 本法案僅課予業者揭露義務,至於業者違反本法之法律效果,依本法案第17941條,需參照其他相關法規予以決定。例如違反本法案者,即可能被視為是違反美國加州民法揭露資訊之義務者而需擔負相關民事賠償責任。最後值得注意者為,本法案於第17941條針對「利用對話機器人誤導公民其為真人同時影響公民投票決定」之行為,亦納入規範,亦即選舉人如有利用對話機器人影響選舉結果而未揭露其利用對話機器人之事實時,依本條將被視為違法。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。