中國大陸國務院常務會議於2014年11月19日通過其《促進科技成果轉化法修正案(草案)》,並將提請全國人大常委會審議。本次修法重視「國家制定政策,充分發揮市場在科技成果轉化中的決定性作用,建立科技成果轉化市場導向機制和利益分配機制」,其中明文規定中國大陸國務院和地方各級人民政府應當加強財政、稅收、產業、金融、政府採購等政策,以強化科技成果轉化相關活動,推動科技與經濟結合,加速科學技術進步,實現創新驅動發展。
按中國大陸《促進科技成果轉化法》係於1996年10月1日施行,歷經2007年之修訂,共計6章37條。本次通過的修正草案,增加至9章58條,其中保留和擴充現行法13條,修改合併20條,刪除4條,新增29條。本次修法加大其政府對於科技成果轉化的財政性資金投入,並可引導其他民間資金投入。此外,本次修法也放寬中國大陸高等院校和重點研究院所之科技成果的歸屬,讓其能夠順利地轉化至民間企業。例如:草案第8條規定利用財政性資金設立的科研機構、高等學校可以採取合作實施、轉讓、許可和投資等方式,向企業和其他組織轉移科技成果,並且國家鼓勵這類機構優先向中小企業轉移科技成果。
另,草案第10條亦規定科研機構、高等學校對其依法取得的科技成果,可以自主決定轉讓、許可和投資,通過協定定價、在技術市場掛牌交易等方式確定價格。相關修正大幅放寬成果運用的彈性,惟科研機構、高等學校仍應依草案第14條規定,向主管部門提交科技成果轉化情況年度報告;主管部門應當將科技成果轉化情況納入對科研機構、高等學校的考核評價體系。
本次修法還有一個重點是放寬中國大陸科研機構的研究員及大學教授從事科技成果轉化活動。例如:草案第13條規定利用財政性資金設立的科研機構、高等學校應當建立符合科技成果轉化工作特點的職稱評定、崗位管理、考核評價和工資、獎勵制度。而草案第19條第一項規定,科研機構、高等學校科技人員可以在完成本職工作的情況下兼職從事科技成果轉化活動,或者在一定期限內離職從事科技成果轉化活動。同條第二項亦規定科研機構、高等學校應當建立制度規定或者與科技人員約定兼職、離職從事科技成果轉化活動期間和期滿後的權利和義務。
綜上,本次修法除強化中國大陸研發成果之運用外,更替中國大陸大學教授打開一條前往民間服務或創業的康莊大道,影響不可謂不大,但修正草案最後尚須經中國大陸全國人大常委會審議通過,將持續觀察審議之最終結果。
本文為「經濟部產業技術司科技專案成果」
歐洲央行(European Central Bank, ECB)於2020年3月18日提出7500億歐元之「緊急債券收購計畫」(Pandemic Emergency Purchase Programme),紓困金額占歐盟年GDP之7.3%,以協助歐盟面臨新型冠狀病毒(covoid-19)所帶來之經濟衝擊,同時也減緩再生能源產業因疫情所帶來之影響。 就此,歐洲央行總裁Christine Lagarde表示,對於紓困對象及方法,歐洲央行將採取不分產業類別自市場購買公債或私人債券之方式,以因應疫情所帶來之影響,其中也包含歐盟投資銀行(European Investment Bank, EIB)所發行之「綠色債券」(Green Bond)。又綠色債券係歐盟投資銀行於2007年所發行,又名「氣候意識債券」(Climate Awareness Bond),職是故,歐洲央行針對歐盟投資銀行綠色債券進行紓困將使再生能源產業蒙受其利。 依歐洲央行之「緊急債券收購計畫」,歐洲央行僅得自次級市場(Secondary Market)購買債券,而不得直接自初級市場(Primary Market)購買,亦即歐洲央行僅得自價證券買賣之交易市場購買債券,而不得直接購買首次出售之有價證券,此項限制,也包含歐盟投資銀行所發行之綠色債券。 以歐盟投資銀行綠色債券為例,歐洲央行之操作機制在於透過此項購買手段,提升歐盟投資銀行綠色債券之市場價格,同時讓歐盟投資銀行面對投資人時,可以享有較為優渥之議價空間,以降低歐盟投資銀行未來所要付給投資人之利率。同時歐洲央行可再進一步降低對於歐盟投資銀行之利息,進一步降低歐盟投資銀行因發行綠色債券所帶來之利息壓力,促使綠色產業得以因應疫情之衝擊。 如此歐洲央行即達成其目的,減緩投資市場之震盪,同時達到振興經濟產業效益。這也是為何,歐洲央行僅得自次級市場(Secondary Market)購買債券,而不得直接自初級市場(Primary Market)購買債券之原因。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。
手機軟體(APP)辨識來電號碼之法律問題手機軟體(APP)辨識來電號碼之法律問題 科技法律研究所 102年03月25日 壹、事件摘要 我國自2005年開始推展行動電話「號碼可攜」服務,允許使用者將行動電話號碼申請移轉至另一業者。當號碼進行移轉時,為降低通話路由資訊傳遞之延遲、避免業者間轉換作業之延宕,通傳會指導各業者共同建立集中式資料庫,整合業者號碼管理資源,增進號碼可攜服務之效率。 日前有某非屬電信事業之業者,設計一款應用軟體,提供智慧型手機使用者下載、安裝後,可自行上傳通訊錄內之電話號碼,並透過電信事業之「號碼可攜集中式資料庫」,確認並辨識通訊錄內電話號碼所屬電信業者,將資訊回傳於使用者之智慧型手機。由於電話號碼屬於使用者個人資料之一環,本文以下分析「非電信事業與電信事業合作,於號碼可攜目的外,對資料庫內之資料進行蒐集、處理與利用是否違反個資法」之疑義。 貳、重點說明 「號碼可攜集中式資料庫」之設立主要目的在使不同業者間能準確的完成通訊的連接。然而,通傳會於96年10月亦有要求各電信業者設置查詢系統,提供用戶查詢欲致電之受話方是否係屬同家業者,進而協助用戶瞭解可能之通訊資費計算。換言之,通傳會認為辨識電信號碼屬於網內/外,屬於消費者規劃、理解其電信資費之權益。而目前亦有手機軟體可輔助消費者查詢相關資訊。 那麼,可否允許消費者進一步查詢致電對象所屬的業者呢?是否違反個人資料保護法的規定呢? 如前所述,通傳會認為使消費者瞭解電信號碼屬於網內/外,有助於資費理解之權益。我們更進一步說,允許查詢號碼所屬門號,不僅消費者可知悉資費之數額計算以決定是否致電,尚可決定是否使用相同電信業者之服務來打電話。我國行動電話普及率早已超過120%,有相當比例之消費者擁有二個以上之門號,若可揭露致電號碼所屬電信業者,使消費者可刻意選擇以網內門號致電,無疑具有相當實益。因此我們認為電信業者提供消費者以手機軟體查詢門號所屬業者,並不違反個資法上針對電信服務規範之「特定目的」(第133項:經營電信業務與電信加值網路業務)。一般的行動電話用戶,可透過電信業者查詢其所致電對象之門號所屬業者,則居於輔助地位的APP軟體,與用戶直接向業者查詢相比,實則無任何不同,應視為用戶之合理行為。 參、事件評析 個資法修正後,對於個人資料之保護更加的完善,但科技之發展使得個人資料之利用呈現多樣性,難以釐清某些利用行為是好是壞,然而本文基於鼓勵科技發展以及創新研發的立場,當面對某些個資利用情狀產生疑義時,應加以釐清其運用之情狀,避免在情境不明時,過度的擴張個資保護的界線,對市場發展以及消費者權益而言,並非好事。 當然另一方面而言,濫用科技便利的情形是存在的,如同2012年12月甫結束之ITU國際電信大會(WCIT2012),多國所簽署之修正電信管制規則第5B條所示,要求各國應努力採取必要措施,防止未經許可之濫發電子訊息,以減少對國際電信業務之影響。由於網路無遠弗屆,具騷擾性、浮濫發送之訊息,已從早期之垃圾電子郵件,擴及網路即時通訊軟體,不但時常造成使用者之困擾,甚至造成詐騙橫行。而這些狀況,光依靠個資法也是不足的,尚須主管機關對於濫用電信資源加以管制,從個人資料與電信資源等層面多管其下,方能維護良好之產業環境。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。