加拿大政府於2010年12月通過反垃圾郵件法,並將於2011年底前生效,加國訂定此法律目的在於藉由遏止垃圾郵件、身分盜用、網路釣魚、間諜軟體、病毒、殭屍網路及誤導性的商業表示等行為,建立新的規範機制與罰則,解決此類線上威脅,從而促進電子商務發展。
目前引發兩派看法,自電子商務角度以觀,企業經營者倚賴電子郵件與消費者互動,而新法要求企業經營者在發商業行銷郵件前須先獲得同意,且必須有明確的取消訂閱機制供收信人選擇。雖在交易過程中獲得的電子郵件地址,將被視為已默示同意發送信息,但只能於最後一次購買日期後兩年內發信,如此企業必須另外建立符合法令規定的郵件清單並加以管理,對企業經營者而言著實是一種負擔。且因為新法定有罰則,若違反法令,加拿大廣播及電訊管理委員會(Canadian Radio-television and Telecommunications Commission, CRTC)有權對個人處以最高100萬元的行政罰款,對公司最高罰款可達1,000萬元,如此使因業務需要而發送大量電子郵件的公司,包括電信公司、銀行等感到惶惶不安。同時另一方面有論者質疑此法律的執行成效,因大部分的垃圾郵件非自加拿大當地所發出,要如何達到減少並遏止前述線上威脅,效果存疑。
另一派見解則認為,在此法案通過前,加拿大是八大工業國中,唯一没有具體的垃圾郵件管理辦法的國家。雖然此法影響電子商務產業,然而知名企業也可能會濫發商業郵件,且縱使發送郵件公司並非在加拿大本地發送垃圾郵件,其未必在加拿大無分支機構,垃圾郵件確實對加拿大人民造成損害,因此制定並施行反垃圾郵件法是必要的。
2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。
蘋果Apple將槍口轉向波蘭零售商好萊塢開始在抓涉及侵權內容的手機APP,並要求從APP的購買商店中移除。內容著作權人如NBC環球、漫威漫畫、派拉蒙、索尼、20世紀福斯、華納兄弟等都向GOOGLE提出了請求,請求GOOGLE將侵權的APP從GOOGLE娛樂商店移除。內容著作權人鎖定的APP,據稱包含像是超世紀封神榜、歡樂合唱團、花邊教主、綠光戰警、蜘蛛人、哈比人等未授權的圖像。APP侵權的問題越來越嚴重,國際智慧財產聯盟發言人Steven J. Metalitz表示「這種狀況不斷的在增加」。 IP套索是一個讓軟體偵測侵權內容來源的工具,以IP套索來進行偵測,可以顯示GOOGLE和APPLE的APP商店有90%提及奧斯卡或奧斯卡獎的APP,有侵權或是公然欺騙消費者的情況。GOOGLE政策是當GOOGLE從APP商店移除這些遭指稱為是侵權內容的APP時,同時也會寄送移除請求的副本給相關的網站。依據GOOGLE的政策,會將侵權的APP從GOOGLE商店上移除,但並不保證這個APP也會一併從網路上消失。舉例來說,GOOGLE從線上商店移除哈比人3D高畫質桌布,但是這APP還是可以從網路上的其它地方取得。 APPLE則不過問在iTunes商店上的侵權APP問題。APPLE的政策是只針對所有在線上商店的APP審查是否符合APPLE自己的規定。沒有任何報告顯示,有任何APP曾因侵權問題而遭到APPLE從APP商店中移除過。
美國法院否決Google與作家、出版商達成的和解協議美國紐約南區地方法院於今年3月22日裁定否決Google 與美國作家協會(Authors Guild)及出版商間所達成的和解協議。此和解案起於Google 於2004年提出的Google Books 計畫,規劃與各大學圖書館合作進行將其館藏圖書數位化。美國作家協會於是於2005提起集體訴訟,在經過兩年談判後與Google 於2008年達成和解協議。如此協議被法院認可,Google 將可掃描及販售成千上萬之書籍,其中包含已絕版之書籍,且即使這些書籍並非屬於公共財或未取得出版商之許可置於Google Books上。 美國地方法院法官Denny Chin表示雖然將書籍數位化且建制完整的數位圖書館(universal digital library)將會造福很多人,但認為和解協議的內容不具公平、適當及合理性。因相較於其競爭對手,此和解協議將給予Google享有顯著的優勢,讓其進行大規模的複製未經授權的著作。 Google 律師表示此裁定令人失望,但將檢視法院之判決並思考後續之選擇,並說明不論結果如何,Google 將持續致力於將全世界的書籍藉由線上Google Books 及Google eBooks 的方式被發現。
澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)