居住於溫哥華的加拿大人Michael Hallatt(以下簡稱Hallatt),在加拿大設立了一家超市名為”Pirate Joe’s”,其貨品來源主要來自美國知名大型超商Trader Joe’s的產品,每年往來美國、加拿大平均花費近35萬美元購買Trader Joe’s的產品,包含有機沾醬、巧克力餅乾、裹著牛奶巧克力的洋芋片等熱門產品。
自稱為Trader Joe’s的最忠實客戶Hallatt,卻於今年(2013)被Trader Joe’s於美國境內提出訴訟,Trader Joe’s主張Hallatt經營Pirate Joe’s的方式侵害其商標權(trademark infringement)、不實廣告(false advertising)、使消費者誤認Pirate Joe’s有經Trader Joe’s授權或認同(false endorsement)等。
Trader Joe’s表示其花費大量時間及心力洞悉消費市場需求及產品推出時機點,逐項開發及製造產品,而Hallatt卻不費吹灰之力,直接買進相關產品後於加拿大以較高價格再次販售。Pirate Joe’s的經營模式可能誤導甚至欺瞞消費者使消費者誤認Pirate Joe’s為經過Trader Joe’s授權或同意之賣商。此外,Trader Joe’s認為Pirate Joe’s店面視覺上與Trader Joe’s超市外觀十分相近,有抄襲Trader Joe’s著名的商業表徵(South Pacific trade dress)。更甚者,Trader Joe’s認為Pirate Joe’s販售的有可能是已經受損的、過期的或其他不符合Trader Joe’s品管標準的產品,Pirate Joe’s這樣的銷售行為將導致Trader Joe’s無法解決前述所指出的產品潛在問題,嚴重毀損Trader Joe’s商譽及品牌形象。
另一方面,Hallatt則認為他僅是為了加拿大消費者方便,為消費者省去交通成本、時間等,讓消費者在加拿大即可購買到美國Trader Joe’s的產品,其認為其有權利再次銷售其合法購買取得的商品,即便他販售的價格稍微高些。
此訴訟目前仍在進行中,一方為美國知名大型超商Trader Joe’s,另一方為販售Trader Joe’s產品的加拿大超商Pirate Joe’s,在「品牌形象保護」及「產品合法再銷售範疇」兩者權衡下,究竟這場商標相關爭訟結果為何值得拭目以待。
2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
什麼是「先進製造夥伴2.0」(Advanced Manufacturing Partnership 2.0, AMP2.0)?為重塑美國先進製造技術領導地位,發展創新研發與就業,美國總統歐巴馬陸續啟動先進製造國家戰略計畫、先進製造夥伴計畫(Advanced Manufacturing Partnership, AMP)與國家製造創新網絡(National Network of Manufacturing Innovation, NNMI)等框架計畫,並於2014年10月由美國總統執行辦公室和科技顧問委員會發布「先進製造夥伴2.0」(Advanced Manufacturing Partnership 2.0, AMP2.0)。 其中新版的先進製造夥伴計畫,除續行原先之計畫目標,例如:對於「研發技術政策形成」、「區域創新機構」與「全國製造創新網絡」等要項外,「先進製造夥伴2.0」框架強調「製造業資源如何有效匯集」,另透過「組織角度設計」、「法制環境建構」與「商業化運用促進」等面向提出具體執行建議。
美國簽署晶片和科技法案,全球科技業將掀起波瀾美國近日為防堵中國、其他受關注國家如俄羅斯等國掌握半導體等高科技行業關鍵技術,遂致力於加強培養其本土之半導體及高科技通訊產業。於美國時間2022年8月9日美國總統拜登簽署 「2022年晶片和科技法案」 (CHIPS and Science Act 2022),該法案除可作為2021年頒布之「美國電信法案」之補助資金來源,發展開放式無線電接取網路(Open Radio Access Network, ORAN)外,亦有望大幅度提升美國本土晶片生產量。 本法案提高美國聯邦政府對科學技術研究及開發專案之授權,除授權美國商務部(Department of Commerce , DOC)、國防部(Department of Defense, DOD)外,還結合國務院(Department of State, DOS)透過資金補助之方式,發展影響美國競爭力及國家安全至關重要之半導體製造等高科技產業、人工智慧、量子計算等科學研究,本法案整體編列之預算高達2800億美元,至2027年時,授權金額預計將達1740億美元,而其中將挹注超過520億美元之資金用於發展美國本土晶片之生產及研發。 此外,該法案設有靜態限制,禁止接受補助之半導體企業投資以電子設計自動化(Electronic design automation, EDA)工具設計或製造晶片之中國公司,換句話言,即受補助之企業不得於十年內投資或擴大生產中國製低於28奈米之先進晶片。本法案亦提供25%之稅收優惠予於美國建造、裝設晶片廠之業者,以鼓勵企業進駐美國藉以提升美國生產之晶片總量,同時藉由企業之投資帶動美國各地經濟發展,提高就業率。 藉由本法案之制定,有望降低美國對其他國家晶片之依賴,並得藉此發展科技研究,對未來全球高科技產業供應鏈將造成偌大影響,值得持續關注。
OECD發布「促進人工智慧風險管理互通性的通用指引」研究報告經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。