日本內閣府知的財產戰略本部在2019年6月21日公布本年度知的財產推進計畫(下稱本計畫),以「脫平均」、「融合」、「共感」做為本計畫三大主軸:
綜上,不難發現日本已將「創造」做為本計畫發展之核心概念。從人材培育、創造資料價值及打造軟實力產值等,都顯示智慧財產除保護之外,更應提升並擴散其價值。回顧我國智財戰略綱領在2017年結束之後,並沒有相關計畫延續。然而智慧財產是一國軟實力之展現。透過潛移默化的浸潤,能達到比任何硬實力還大之功效。我國應該思考如何重啟智財戰略,拓展我國軟性底蘊。
中國大陸國務院常務會議於2014年11月19日通過其《促進科技成果轉化法修正案(草案)》,並將提請全國人大常委會審議。本次修法重視「國家制定政策,充分發揮市場在科技成果轉化中的決定性作用,建立科技成果轉化市場導向機制和利益分配機制」,其中明文規定中國大陸國務院和地方各級人民政府應當加強財政、稅收、產業、金融、政府採購等政策,以強化科技成果轉化相關活動,推動科技與經濟結合,加速科學技術進步,實現創新驅動發展。 按中國大陸《促進科技成果轉化法》係於1996年10月1日施行,歷經2007年之修訂,共計6章37條。本次通過的修正草案,增加至9章58條,其中保留和擴充現行法13條,修改合併20條,刪除4條,新增29條。本次修法加大其政府對於科技成果轉化的財政性資金投入,並可引導其他民間資金投入。此外,本次修法也放寬中國大陸高等院校和重點研究院所之科技成果的歸屬,讓其能夠順利地轉化至民間企業。例如:草案第8條規定利用財政性資金設立的科研機構、高等學校可以採取合作實施、轉讓、許可和投資等方式,向企業和其他組織轉移科技成果,並且國家鼓勵這類機構優先向中小企業轉移科技成果。 另,草案第10條亦規定科研機構、高等學校對其依法取得的科技成果,可以自主決定轉讓、許可和投資,通過協定定價、在技術市場掛牌交易等方式確定價格。相關修正大幅放寬成果運用的彈性,惟科研機構、高等學校仍應依草案第14條規定,向主管部門提交科技成果轉化情況年度報告;主管部門應當將科技成果轉化情況納入對科研機構、高等學校的考核評價體系。 本次修法還有一個重點是放寬中國大陸科研機構的研究員及大學教授從事科技成果轉化活動。例如:草案第13條規定利用財政性資金設立的科研機構、高等學校應當建立符合科技成果轉化工作特點的職稱評定、崗位管理、考核評價和工資、獎勵制度。而草案第19條第一項規定,科研機構、高等學校科技人員可以在完成本職工作的情況下兼職從事科技成果轉化活動,或者在一定期限內離職從事科技成果轉化活動。同條第二項亦規定科研機構、高等學校應當建立制度規定或者與科技人員約定兼職、離職從事科技成果轉化活動期間和期滿後的權利和義務。 綜上,本次修法除強化中國大陸研發成果之運用外,更替中國大陸大學教授打開一條前往民間服務或創業的康莊大道,影響不可謂不大,但修正草案最後尚須經中國大陸全國人大常委會審議通過,將持續觀察審議之最終結果。
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。
梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」 此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。 目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。
淺談美國建築能源科技法制政策發展近況