南非共和國議會在2013年8月22日通過了個人資料保護法修正案(PROTECTION OF PERSONAL INFORMATION BILL),該法案已由總統Jacob Zuma簽署正式成為法律,這也是南非首次全面性的個人資料保護立法 。
該部立法目的在於為促進個人資料的保護,建立全面性的個人資料保護原則。此次提出多項修正,包括 :
1. 設立獨立法人監察機構作為獨立且公正的執行個人資料保護法上職務及權力。
2. 公、私部門僅在特定情形時方可處理個人資料。
3. 蒐集個人資料必須提交予前述獨立法人監察機構。
4. 限制蒐集兒童個人資料,並將哲學、信仰、宗教,種族、民族血統,工會會員,政治觀點,健康,性生活或犯罪前科列為特種個人資料,並加以限制蒐集。
5. 需要處理個人資料者,必須落實保護措施,以保護個人資料為完整之狀態。
6. 發生個人資料外洩情形時,必須通知受影響的當事人以及前述獨立法人監察機構。
7. 要求公、私部門均需指定專責個人資料保護人員。
8. 透過自動傳呼裝置行銷需受到一定程度之限制。
9. 限制跨境傳輸時,限制傳輸收受方必須是至少具備與南非相同個人資料保護水準之區域。
南非之個人資料保護法通過後,對於消費者保障係又提升至另一層次,然該法之施行會對企業造成的衝擊,以及消費者是否可以在修法後獲得實質上的保障,仍待觀察。
美國白宮管理與預算辦公室(Office of Management and Budget,以下簡稱OMB)在2025年12月11日發布M-26-04備忘錄(以下簡稱本指引),目標是落實第14319號行政命令「防止聯邦政府中的覺醒AI」(Preventing Woke AI in the Federal Government)。本指引闡述「追求真相」(Truth-seeking)、「意識型態中立」(Ideological Neutrality)兩大「無偏見AI原則」(Unbiased AI Principles),並強制要求聯邦機構在採購大型語言模型(LLM)時,必須將此二原則納入合約條款。 為確保符合規定,本指引要求聯邦機構在進行採購時,應避免強制供應商揭露過於敏感的技術資料(如模型權重),而是採取以下兩層級的資訊揭露架構: 1. 基本透明度要求(Minimum Threshold for LLM Transparency) 各機構於招標階段,應要求供應商提供以下資訊: (1) 可接受的使用政策:界定產品適當與不適當用途的文件。 (2) 模型、系統和/或資料的摘要卡(Model, System, and/or Data Cards):包含訓練摘要、風險緩解措施及基準測試評分。 (3) 終端用戶資源與意見回饋機制:包含用戶教程及針對違反無偏見原則產出的回報管道。 2. 強化透明度門檻(Threshold for Enhanced LLM Transparency) 若機構擬將模型整合至其他軟體或服務中,則需獲取更深入的開發與運作資訊,例如: 1. 預訓練和後訓練(Pre-Training and Post-Training):如影響產出事實性(factuality)的活動、系統提示詞(System Prompts)、以及內容審查過濾器的具體運作。 2. 模型評估:針對政治議題的偏見測試結果與方法論。 3. 模型中嵌入的企業控制(Enterprise-Level Controls): 如可客製化的系統指令或來源引用功能。 4. 第三方對模型的修改:非原廠開發者所施加的額外控制層。 本指引對聯邦行政機構具有行政拘束力。機構必須於2026年3月11日前更新採購政策,並將上述要求納入新舊合約中。值得注意的是,本指引引入了「實質性要求」(Materiality Requirement),即若供應商拒絕針對違反無偏見原則的產出採取糾正措施,將構成合約違約之重要事由,機構得據此終止合約。 觀察美國OMB此次發布的內容,係透過將「意識形態中立」轉化為具體的採購合規要件,OMB利用聯邦政府龐大的購買力,在採購合約中確立供應商的「透明度義務」,OMB指引不僅建立了明確的法遵標竿,更可能發揮示範效應,將政府端的無偏見規範逐步推廣至私營部門,轉化為產業的最佳實踐標準。
美國證券交易委員會允許Overstock公司以區塊鏈(Block Chain)技術為基礎發行公司證券數位金融時代已然來臨。美國金融證券市場在2015年12月發生一些重大轉變,其中之一為美國證券交易委員會(U.S. Securities and Exchange Commission,下稱SEC)允許Overstock.com公司以區塊鏈技術(Blockchain technology)為基礎透過網路發行公司證券。 區塊鏈技術為一種以分散式結構方式,記錄數據、傳輸及驗證的方法。當有資訊產生時,所有相連電腦會共同驗證該資訊之真實性。驗證該資料具真實性後會寫入區塊鏈,並產生不可竄改的紀錄。 區塊鏈技術特點如下: 一、分散式結構之設計:可達到去中心化效果,以此降低資料遭駭客攻擊或竄改之風險,提升資訊安全。 二、驗證機制:可提供所有參與者共同驗證資料真實性,打造安全可靠之共識環境。 三、P2P機制:可節省繁瑣程序並降低交易成本。 綜合上述三點,區塊鏈技術受到市場極大的關注。為提升資訊安全與降低交易成本及因應數位金融時代,金融業者嘗試將區塊鏈技術應用於股票、債券或是有價證券交易市場,期望可完善金融交易環境。 雖然區塊鏈技術潛在市場龐大,但Overstock公司也在向SEC申請允許以區塊鏈技術發行證券之文件中,指出其選擇將公司訊息儲存在任何人皆可查閱之公開區塊鏈,可能導致個人對其隱私安全的疑慮。即便有此風險,仍認為區塊鏈技術應用於發行證券,將有助完善證券市場交易環境,透過區塊鏈技術,將可紀錄所有交易,從中減少中間商控制市場的空間,並減少賣空之套利行為。 但是,將區塊鏈技術應用於數位金融或許將衍生金融法規相關問題。因為金融法規針對不同類型金融商品,有相關規範管制。若應用區塊鏈技術於相關金融商品,勢必產生相應問題。諸如:股票交易需依據證券交易條例實行,然其中並未設有電子移轉及交易相關規範,若應用區塊鏈技術進行證券交易,主管機關須思考如何規範並控管市場。因此,金融法規將勢必隨之調整以符合數位化趨勢。
Pioneer控告Garmin車用導航專利侵權日本Pioneer於11月13日向美國國際貿易委員會(International Trade Commission, ITC)控告美國GPS大廠Garmin侵害其下三項美國車用導航技術專利,並要求禁止Garmin進口及銷售涉及所侵犯之相關產品。 該訴訟主要起因於Pioneer所擁有的三項美國專利(專利號分別為第5,365,448號;第5,424,951號及第6,122,592號),其車用導航系統,包含如到達目的地時可自動刪除導航資料,或顯示不同位置間距離等相關功能。Pioneer已授權給其他公司使用,但與Garmin雙方進行討論授權時,由於Garmin針對Pioneer之車用導航系統專利組合所評估授權價值不甚合理,導致談判破裂,才促使Pioneer提出控告,並禁止Garmin將涉嫌侵權之產品進口至美國進行銷售。希冀Garmin尊重Pioneer的智慧財產權。 Pioneer就所擁有的兩項歐洲專利(專利號分別為第0,775,892號;第0,508,681號)已於10月9日向Garmin 於德國Dusseldorf地方法院提出控告,並請求損害賠償。 Garmin發言人Jessica Myers針對Pioneer所提出控告的專利認為是無效,且該控告將不影響Garmin繼續銷售相關系列產品。
歐盟「人工智慧法」達成政治協議,逐步建立AI準則歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).