今(2010)年5月,美國克雷格文特爾研究所宣布,成功完成首個由電腦設計之人造基因組控制,並具有自我繁殖功能的合成細胞,研究人員將其取名為辛西亞(Synthia),並發表於科學雜誌,此舉意味生物科技的發展,已經從生命複製階段步入生命創造階段。此次合成細胞的成功,引發先進國家政府方面的對經濟利益、管理及社會法制影響等方面的重視。美國總統歐巴馬便敦促生物倫理委員會對此發展進行密切觀察,評估此研究將之影響、利益和風險。
英國對於合成生物學發展的規範議題也十分關心,該國2009年開啟有關合成生物學的公眾對話(public dialogue),並於今年6月完成並公布報告。獲得的結論如下:
一、肯定合成生物學所帶來的機會:
英國民眾普遍認為合成生物學的應用將會帶來許多重要的機會,可協助解決當前社會所面臨的重大挑戰,例如氣候變遷、能源安全與重大疾病等。
二、關心合成生物學發展的不確定性:
由於合成生物學的發展充滿著不確定性,故當長期的負面影響尚未可知時,有些民眾反而因發展過於快速而覺得到沒有確定感。
三、期待國際規範形成:
英國民眾認為希望能有國際性的合成生物學規範與管理措施,尤其應針對合成生命物質在未受到管制而釋出於環境之生物安全議題,猶應有國際性的管理規範。
四、衡量科研人員動機:
英國民眾擔心,研究者好奇心的驅使,會使合成生物學發展過於快速,故應衡量其研究所帶來的廣泛影響。
五、強調科研人員之責任
負責資助的研究委員會應有清楚角色,促使科學家在此新興科技領域研究中,培養思考科學家責任之能力。
此次對話結果將會納入英國對合成生物學研究補助的法規政策,成為決定補助方式、項目與範圍的重要參考依據。這樣的作法是考量到,希望使合成生物學在健全的管理與法規下持續發展,預先減低過往生物科技發展導致民眾疑慮而致延滯發展的可能性,也更能將政府科研資助有效地投入有利於國家整體發展的領域中。
日本厚生勞動省於2月7日公布2018年度健康保險診療報酬改訂內容,本次改訂項目中,最受矚目者為增訂線上診療之報酬給付。此種活用網路或智慧手機等資通訊網路(ICT)設施所為之診療,在2月7日中央社會保險醫療協議會總會中審議通過,公布個別改訂項目及診療報酬點數。 所謂的「線上診療」係指使用智慧手機之影像電話機能等,使醫師與病患以網路為連結所進行之診療。新設之診療報酬規定,係以具備「使用線上系統等通信技術,得為同步(real time)溝通,為診療與醫學管理。換言之,使用資通訊機器,以影像通話,透過同步影像有溝通可能性係為必要要件。 此一改訂自本年4月1日起適用,醫師診療原則上以面對面診療為原則,在包含有效性、安全性之考量下,且符合一定要件前提而為線上診療時,以「線上診療費」、「線上醫學管理費」等給付項目為給付。 因應此一改訂,厚生勞動省於本年3月30日發布並下達「線上診療適切實施指針」(醫政發0330第46號),本指針係從醫師法第20條禁止無診察診療及個人資料保護法,與線上診療之關係為出發,就到目前為止厚生勞動省發出的通知或事務聯絡等之解釋為正式整理及明確化。項目有:1.關於提供線上診療之事項;2.提供線上診療應具備之體制事項;3.其他線上診療關連事項。各自訂出「最低限度遵守事項」、「建議及獎勵事項」等,最低限度遵守事項之遵守範圍係為了明確不違反醫師法第20條規定所必要。
美國提出壟斷威攝法案美國參議院在2019年7月23日,於第116屆國會中審查了兩次「壟斷威攝法案」(The Monopolization Deterrence Act),相當於台灣法案經過二讀。提出者是參議院司法委員會反托拉斯、競爭政策和消費者權益小組之成員,克洛布查爾,他認為聯邦執法人員發現非法壟斷行為之時,需要採取果斷行動以確保制止這種行為,但僅僅是禁制令不足以阻止這種非法行為的發生,尚需更好的立法。 本法將賦予司法部和聯邦貿易委員會權利,對壟斷犯罪尋求懲罰性罰款,其目的係為司法部和聯邦貿易委員會提供額外的執法工具,針對個別違規行為制訂補救措施,平衡其嚴重的犯行,並希冀能有效制止未來之非法行為。原法律規定個人違反最高可罰一百萬美元,企業最高可以罰一千萬美元,國會調查後認為原法律規定之罰款不足以阻止壟斷行為,因為獲利可能比罰款更多。 有關「壟斷威攝法案」之修正內容大略包含: 每個違反本條規定的人,必須負擔民事罰款,該罰款不大於個人上一年度在美國的總收入中的15%。從事非法行為之期間,所有交易、貿易行為收入的30%。 委員會針對以不正當方法競爭違反謝曼爾法案第二條的個人、合夥企業或公司,可以在美國地方法院提起民事訴訟,並對此種行為處以民事罰款。 任何個人、合夥企業或公司被發現違反了謝曼爾法案第二條,其民事罰款不大於個人、合夥企業、公司上一年度在美國的總收入的15%。從事非法行為之期間,與非法行為有關之商業活動中之個人、合夥企業或公司在美國之總收入的30%。 在聯合民事處罰準則中,有規範總檢察長和聯邦貿易委員會在計算民事罰款時,必須考慮之相關因素,有以下七項,其一,受影響的商業量;其二,違法行為的持續時間和嚴重性;其三,為隱瞞違法行為而採取或試圖採取之任何行動;其四,違法行為嚴重或明顯違法之程度;期五,是否將民事處罰與針對違法行為之其他救濟相結合,包括結構性救濟、行為條件、非法所得之歸還;其六,先前是否曾從事過相同或類似之反競爭行為;其七,是否違反先前之法令或法院命令該為之行為。
美國證券交易委員會發布指引要求公司進一步揭露加密資產之潛在影響美國證券交易委員會(United States Securities and Exchange Commission,下稱SEC)於2022年12月8日發布「致公司有關近期加密資產市場發展之樣本函(Sample Letter to Companies Regarding Recent Developments in Crypto Asset Markets)」指引文件(下稱本指引),指導公司應針對自身業務涉及近期加密資產市場動盪事件(如虛擬貨幣交易所破產等),進行直接或間接影響之風險揭露,以符合聯邦證券法規之資訊揭露(如風險及風險暴露等)義務。SEC轄下之企業金融處(Division of Corporation Finance,以下簡稱金融處)認為公司應向投資者提供具體且量身訂製之市場動盪事件報告、揭露公司在動盪事件中之狀況以及可能對投資者造成之影響。爰此,本負有常態報告義務的公司應據此考量現有的揭露內容是否須進行更新。 金融處說明,為加強並監督公司對資訊揭露要求之遵守狀況,爰依據1933年證券法(Securities Act of 1933)及1934年證券交易法(Securities Exchange Act of 1934)內涵,要求公司亦須針對應作出聲明的實際狀況,進一步揭露相關重大訊息,且不得進行誤導。本指引所要求公司明確揭露加密資產市場發展的重大影響,包括公司對競爭對手及其他市場參與者之風險暴露;與公司流動資金及獲取融資能力相關的風險;及與加密資產市場法律程序、調查或監管影響相關的風險等。 值得注意的是,本指引並未列出公司應考量問題的詳細清單,個別公司應視自身情況評估已存在之風險,或是否可能受到潛在風險事項的影響。由於公司所揭露之文件事前通常不會經過金融處審查,因此金融處也敦促各公司應自主依循本指引進行相關文件準備。
澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)