近期,Netflix向Covid-19影視緊急救濟基金捐贈100萬英鎊,並由電影電視慈善機構與British Film Institute(BFI)的支持下進行管理,目的是向在英國各地因停產而直接影響之在職工人和自由職業者,提供緊急短期救濟。BFI和電影電視慈善機構本身並沒有直接將資金投入基金,而是希望觸發第三方的投資。目前,該基金會正制訂確切之資格標準及個人資助水平,針對從事製作,發行和展覽的人員開放救濟。
此次Netflix向Covid-19電影和電視緊急救援基金會及全球其他組織的捐款旨在為失業人員提供緊急救濟,其原創系列副總裁安妮·門薩表示:“我們很榮幸與BFI和電影電視慈善組織合作,為電視和電影製作中受災最重的工人提供支持。從電工到木匠,從髮型和化妝師到司機的英國工作人員一直對Netflix的成功至關重要,我們希望在現在這個艱難的時刻,給最需要支持的自由職業者提供幫助。”
面對來勢洶洶之Covid-19疫情,全世界之影視產業皆受到前所未有之調整,我國面對疫情,文化部亦已研擬短期抒困措施與中長期振興之因應方案,並研擬「藝文紓困及振興辦法(草案)」,就短期抒困方面,「藝文紓困補助」將補貼藝文事業、團體及個人之營運成本;長期振興部分則將藝文產業納入經濟部振興抵用劵之適用範圍可用於藝文展演、電影院等藝文消費。然目前我國文創產業之抒困措施仍以政府補貼為主,若為加速恢復產業運作,或許國內各藝文團體或協會亦可效仿英國BFI,自主建立振興與抒困機制,以利受重創之藝文從業人員維持生計。
2023年7月知名社群網路服務平台Twitter基於品牌多角化經營考量(意圖進軍線上金融服務領域),Twitter執行長伊隆·馬斯克(Elon Musk)突然宣布全面變更品牌商標,經典「藍色小鳥」的商標標識改為黑白配色的「X」圖案(以下將該案例稱為「Twitter案」)。 實務上,企業可能於多種情況進行品牌商標之變更,例如:諾基亞(Nokia)因為希望向消費者表明其從手機公司轉型為商業科技公司的決心,故更換新商標,可見Twitter案的更名在科技業並不少見。重點在於品牌商標更名後,可能在商標法方面產生的風險。商標為指示品牌商品與服務來源的重要識別標識,在Twitter案中使用單一英文字母「X」作為新商標,在商標法上,一般被認為識別性較低,較難取得商標權,且其保護範圍可能也因此限縮於設計過的「黑白X標識」;其次,X作為一個常用的英文單字,較易產生與他人商標近似之風險,例如:微軟(Microsoft)公司2003年註冊與其遊戲系統Xbox通訊有關的X商標,或Meta公司自2019年起擁有藍白色彩的X字母商標,且註冊商標指定範圍也是社群媒體、軟體等。 為降低前述品牌商標爭議問題,建議企業由品牌標識設計、品牌全球拓展、品牌行銷宣傳三大階段,分別留意以下事項: 一、品牌標識設計階段:設計全新品牌標識或優化既有品牌標識前,事先評估品牌標識在商標法上是否具有識別性、是否與他人商標近似造成消費者混淆誤認等法定無法取得商標等風險,再決定是否維持原設計理念投入設計。如:Twitter案新商標X,除了透過品牌標識設計增加法律上的識別性,同時降低可能的侵權風險。 二、品牌全球拓展階段:如果預見可能侵權風險,則應加強爭議處理機制的建置,以利爭議發生時,及時採取因應措施。 三、品牌行銷宣傳階段:運用行銷手段加強品牌商標的「後天識別性」,如:透過投放廣告加強在消費者心中「黑白X標識」與品牌的連結等。 有關Twitter Inc.(現已併入X Corp.)的X品牌商標保護與布局策略,將會是後續值得關注的議題。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現
美國專利商標局月底啓動「三路」試行計畫(“Triway”Pilot Program)美國專利商標局(USPTO)在2005年11月,與歐洲專利局(EPO)及日本專利局(JPO)之三邊會前會上,提出了一個簡稱為「三路」(Triway)的檢索共享計畫,該計畫希望能使三局的檢索技術發揮槓桿效果,進而能使專利申請者及各該專利管理當局受惠。 三局其後在2007年11月的三邊會前會上同意先期進行有限的試驗計畫。 「三路」的基本構想乃希望透過縮短時效來推廣資源分享,同時能使申請者及各該管理當局在很短的一定時間內取得三局的檢索結果,進而使申請者及各該局有機會能分享及考量所有的檢索結果,同一協助改善各該局對同一專利申請者專利審定之品質。 在「三路」試行計畫下,各該局對於在巴黎公約下之同一專利申請將適時提早進行檢索,且各該局的檢索結果將由三局共同分享以減少各該局的檢索及審查工作量。 三局同意「三路」試行計畫之試行對象限於在美國專利商標局首次提出申請者,並限於一百個試行專利申請案,試行計畫將在明年的同一時間結束,或在接受一百個試行專利申請案後提前結束。
美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。