今(2010)年5月,美國克雷格文特爾研究所宣布,成功完成首個由電腦設計之人造基因組控制,並具有自我繁殖功能的合成細胞,研究人員將其取名為辛西亞(Synthia),並發表於科學雜誌,此舉意味生物科技的發展,已經從生命複製階段步入生命創造階段。此次合成細胞的成功,引發先進國家政府方面的對經濟利益、管理及社會法制影響等方面的重視。美國總統歐巴馬便敦促生物倫理委員會對此發展進行密切觀察,評估此研究將之影響、利益和風險。
英國對於合成生物學發展的規範議題也十分關心,該國2009年開啟有關合成生物學的公眾對話(public dialogue),並於今年6月完成並公布報告。獲得的結論如下:
一、肯定合成生物學所帶來的機會:
英國民眾普遍認為合成生物學的應用將會帶來許多重要的機會,可協助解決當前社會所面臨的重大挑戰,例如氣候變遷、能源安全與重大疾病等。
二、關心合成生物學發展的不確定性:
由於合成生物學的發展充滿著不確定性,故當長期的負面影響尚未可知時,有些民眾反而因發展過於快速而覺得到沒有確定感。
三、期待國際規範形成:
英國民眾認為希望能有國際性的合成生物學規範與管理措施,尤其應針對合成生命物質在未受到管制而釋出於環境之生物安全議題,猶應有國際性的管理規範。
四、衡量科研人員動機:
英國民眾擔心,研究者好奇心的驅使,會使合成生物學發展過於快速,故應衡量其研究所帶來的廣泛影響。
五、強調科研人員之責任
負責資助的研究委員會應有清楚角色,促使科學家在此新興科技領域研究中,培養思考科學家責任之能力。
此次對話結果將會納入英國對合成生物學研究補助的法規政策,成為決定補助方式、項目與範圍的重要參考依據。這樣的作法是考量到,希望使合成生物學在健全的管理與法規下持續發展,預先減低過往生物科技發展導致民眾疑慮而致延滯發展的可能性,也更能將政府科研資助有效地投入有利於國家整體發展的領域中。
美國司法部宣布日商普利司通(Bridgestone Corp.)股份有限公司,就其共謀操縱安裝於汽車中並銷售至美國及其他國家之汽車防震橡膠零組件價格乙案認罪,並同意支付4億2仟5佰萬美元之刑事罰金。 根據俄亥俄州(Ohio)地方法院所提起的一項重罪控訴,該公司於美國及其他國家共謀參與分配銷售、操縱報價及壟斷、提高並維持其出售予豐田(Toyota)、日產(Nissan)汽車公司、富士重工業(Fuji Heavy Industries)公司、鈴木(Suzuki Motor)公司、五十鈴(Isuzu Motors)汽車公司及其某些子公司、加盟和供應商之汽車防震橡膠零組件價格。除了刑事罰金外,普利司通公司並同意配合司法部進行後續之汽車零組件案調查。本認罪協議(plea agreement),業經法院批准。 在2011年10月,普利司通公司即因「海洋軟管」(marine hose)乙案涉嫌壟斷價格及違反「海外貪污防治法」(Foreign Corrupt Practices Act)而遭控訴,經認罪協議並支付2仟8佰萬美元罰金。但於是案答辯中,該公司並未就其同時涉及防震橡膠零組件共謀操縱價格乙情,主動為揭露。該公司未主動揭露上情,乃是本次罰金高達4億2仟5佰萬美元原因之一。 美國司法部副助理部長Brent Snyder表示:「美國司法部反托拉斯署將針對屢犯卻未主動揭露其他反競爭行為者,採取強硬態度。本案之鉅額罰金,即重申該署致力於令企業就其傷害美國消費者之行為,負起責任。」普利司通公司遭指控因價格壟斷違反謝爾曼法案,依法最重可處1億美元之刑事罰金。如企業因犯罪所獲利益之兩倍數額,或犯罪被害人所受損失之兩倍數額,其一逾前開法定最高罰金時,得加重至該數額。
中華人民共和國《出版管理條例》之介紹 南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。
標準必要專利法制發展及對應策略