美韓兩國反托拉斯法主管機關共同簽署反托拉斯備忘錄

  為了促進美國、韓國兩國之間的反托拉斯法主管機關合作。今年9月8日,美國司法部(Department of Justice,DOJ)、美國聯邦貿易委員會(Federal Trade Commission,FTC)與韓國公平貿易委員會( Korea Fair Trade Commission,KFTC)於華盛頓特區簽訂一反托拉斯備忘錄(memorandum of understanding,MOU) ;該備忘錄係由美國司法部反托拉斯署助理檢察總長Bill Baer與聯邦貿易委員會女主席Edith Ramirez及韓國公平交易委員會 Jeong Jae-chan共同簽署。本備忘錄於簽署後立即生效。

  反托拉斯署助理檢察總長Bill Baer表示:「具有坦誠和建設性對話之執法合作對於美國、韓國及全世界各地之競爭市場維持皆極其重要。本備忘錄標示了一直以來美國與韓國公平貿易委員會之間的合作關係;並展現出我們在未來日子中,欲持續加強該合作關係的企圖心。」該備忘錄的重點包含:

  1. 反托拉斯合作重要性的相互承認,包括在進行共同執法時,互相協調的重要性。
  2. 闡明了美國反托拉斯執法機關與韓國公平貿易委員會之間溝通的重要性。
  3. 承諾保護另一方所提供訊息之機密性;並承諾在法規不允許的情況下,禁止分享資訊。

  自韓國1981年通過其反托拉斯法後,美國反托拉斯主管機關和韓國公平貿易委員會之合作關係越來越緊密;其中包括政策意見的交換,並視情況進行合作開展調查。本次所簽訂之備忘錄旨在進一步推動這些合作關係。

※ 美韓兩國反托拉斯法主管機關共同簽署反托拉斯備忘錄, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7038&no=65&tp=1 (最後瀏覽日:2026/02/26)
引註此篇文章
你可能還會想看
拜登政府宣布採取促進負責任AI創新之新行動,以保護美國人民權利與安全

拜登政府於2023年5月4日宣布將採取促進負責任AI創新之新行動,表示公司於部署或公開其產品前,應致力於降低AI風險,並強調風險管理與保障措施的重要性,以防止AI對個人與社會造成潛在危害。此外,拜登總統於2月簽署「透過聯邦政府進一步推動種族平等和支持弱勢群體」行政命令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government),指示聯邦政府機關在設計和使用AI等新技術時,應避免偏見,並保護公眾免受演算法歧視。促進負責任AI創新之新行動包括: 一、投資負責任AI的研發 美國國家科學基金會(National Science Foundation)宣布撥款1.4億美元以啟動7個新的國家AI研究所,未來全美將有25個國家級AI研究所。除有助於促進公私部門之間合作外,將強化AI研發基礎設施、支持多元化AI勞動力發展,及推動氣候、農業、能源、公共衛生、教育與資安等關鍵領域之突破。 二、公開評估現有的生成式AI系統(generative AI systems) Anthropic、Google、Hugging Face、微軟、NVIDIA、OpenAI和Stability AI等領先AI開發商將參與AI系統獨立公開評估,以評估其模型是否符合AI權利法案藍圖(Blueprint for an AI Bill of Rights),及AI風險管理框架(AI Risk Management Framework)所提出之原則與實踐,並使企業及開發人員能就所發現問題,進一步採取解決措施。 三、提出政策引導聯邦政府減輕AI風險及提升AI利用機會 美國行政管理預算局(Office of Management and Budget)宣布,將於2023年夏季發布有關聯邦政府機關各部門使用AI系統之政策指引草案,並徵詢公眾意見。

美國將修法全力圍堵政府資料外洩

  美國國會於今年(2009)11月18日提出「聯邦檔案安全分享法案(Secure Federal File Sharing Act)」,內容主要是限制所有政府部門員工(包含約聘制人員),在未經官方正式同意之前,不得下載、安裝或使用任何點對點傳輸(Peer to Peer, P2P)軟體。期望藉由該法案的通過實施,徹底防堵政府及相關個人機敏資料的外洩。   該法案的制定,最初來自於政府部門對其財務資料保護的要求,早於2004年白宮管理及預算辦公室(The White House Office of Management and Budget)即已建議聯邦政府的各個單位應禁止其職員使用P2P軟體,以防止資料外洩。而於將近一個月前,國會道德委員會取得多位國會議員的財務狀況、經歷及競選贊助金額,並作成調查報告,未料一位新進職員將該份未經加密保護的報告存於自家裝有前述P2P軟體的電腦硬碟中,從而導致該份報告內容全部外洩。此一事件立即對向來注重政府及個人資料保護的美國投下了震撼彈,也促使該法案正式浮出檯面。   歐此項法案的提出毫無意外地得到視聽娛樂產業界的正面支持。主因來自多數人藉由此種軟體在網際網路上分享音樂、影片或其他應用軟體,時常侵害他人的智慧財產權,而法案的內容則是要求政府部門員工無論是在工作或是家中使用P2P軟體都須取得官方授權,無疑是直接限制了上述的分享行為。娛樂業者更進一步指出,P2P軟體對資訊安全的危害在於多數人無法明確知道該軟體的運作方式,而無法對其做正確的設定,使得軟體一旦被啟動,電腦內的所有資料:包含個人的社會安全卡號碼、醫療及退稅紀錄等,就立即暴露於網際網路之中!對此,除了推動此項法案的官員大聲疾呼:「用個人自律的方式防止資料外洩已經失敗,證明國會應該有所行動。   美國錄音產業協會(Recording Industry Association of America)則是預測前述國會調查報告的外洩,將會是資安法案重整的強力催化劑。

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引

  世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。

TOP