本文為「經濟部產業技術司科技專案成果」
雖然美國蘋果公司傳聞中之智慧型手錶-iWatch,由於產品設計上仍有許多問題待解決,故迄今仍只聞樓梯響。但為使「iWatch」受到妥善的保護,蘋果公司已積極在日本、墨西哥、俄羅斯、臺灣、土耳其等地申請「iWatch」商標,且可預期蘋果公司未來仍將持續在全球各地進行申請。 然而,為取得「iWatch」之商標,蘋果公司在各國均可能遭遇困難;如美國加州的OMG Electronics公司即主張其擁有「iWatch」商標,且其商品或服務同樣與智慧型手錶裝置有關;在英國及歐盟則有一間網路服務公司Probendi係從2008年即擁有「iWatch」商標,惟其係註冊用於一款可將智慧型手機內的音樂、影片及地點資訊傳送至該公司管理用軟體的app軟體上;此外,在中國則至少有九間公司主張其擁有iWatch之商標,雖則其中僅有三間公司所有商標係註冊用於「電子產品、手錶週邊」,且現均已屬無效。但近似的商標「iWatching」仍可能阻撓「iWatch」在陸申請註冊商標。 蘋果公司曾在中國以6000萬美元天價與唯冠科技就「iPad」商標使用權達成和解,如果申請「iWatch」商標受阻,或業有其他公司搶註「iWatch」,可能類於「iPad」之戲碼將再度上演。 智慧型手錶裝置可能成為智慧型手機之後,下一波市場競爭的焦點,除了蘋果公司即將推出的iWatch外,Microsoft、Google、Samsung、Dell都將發展智慧型手錶裝置,以追趕Sony之腳步。
美國「人工智慧應用管制指引」美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則: 一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。 二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。 三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。 四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。 五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。 六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。 七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。 八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。 九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。 十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。
世界經濟論壇發布「融合實境中的共同承諾:促進未來網路治理」白皮書世界經濟論壇(World Economic Forum, WEF)2024年11月19日發布「融合實境中的共同承諾:促進未來網路治理」(Shared Commitments in a Blended Reality: Advancing Governance in the Future Internet)白皮書,說明進入虛實整合的融合實境(Blended Reality, BR)時代,需取得社會共識並進行治理,透過倡導以人為本的網路治理框架並促進多方參與,以平衡技術創新與社會期待之間的差距,使網際網路持續進步。 融合實境是由延展實境(Extended Reality)、AI、物聯網(Internet of Things)、6G網路、區塊鏈等新興技術驅動而形成,融合數位與實體。現行網路治理因橫跨不同司法管轄區而有分散與破碎問題,且技術標準間之矛盾或規範落差阻礙全球協作,恐不利因應BR發展所帶來之挑戰。因此,WEF藉此白皮書提出下列8項核心承諾與目標,強調安全、包容及可持續性之發展,期望作為全球共同之治理承諾以應對挑戰: 1. 尊重人權:保障數位與實體空間中的基本人權,促進個人尊嚴、自主性及包容性。 2. 問責:明確各方責任,建立透明有效的問題解決機制。 3. 協作安全(collaborative safety):透過多方利害關係人協作加強對弱勢群體的保護並制定安全標準。 4. 資產所有權:應確保數位和實體資產的來源、真實性及相關權利保護。 5. 負責任的資料治理:透過教育與研究等方式,促進學術、政府、企業與社會間之知識共享,並建立隱私及安全機制,保障資料治理。 6. 教育與研究:支持普及科技教育和推動開放式研究,促進全球科技共享。 7. 無障礙(accessibility):改善基礎設施及多元工具的發展,以確保科技在社會各層面之平等使用與普及化。 8. 永續性:平衡經濟效益與社會及環境影響,建立長期永續發展模式。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}
美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。