日亞化學近日動作仍不斷,近來日亞化學分別在日本、德國及南韓相繼對台灣的代理商及客戶提出口頭警告,不得採用疑似侵權的LED。日亞化學從原先警告台灣業者,進一步對台灣業者的代理商及客戶下馬威,內外夾擊對台廠商都造成威脅。 日亞化學對台灣廠商不友善是事實,特別是部份侵犯日亞化學白光LED專利的廠家,更是恨得牙癢癢。從早期日亞化學所採取的舉動來看,最先是以口頭警告方式,或對外放風聲來嚇嚇台灣業者。後來嚇多了也不管用,最後就向法院提出假扣押,算是較明顯的法律行動。不過,後來也不見太大成效,轉而向國外下手,第一是到南韓,對台灣的客戶下手,警告他們不得採用疑似侵權的LED產品。這也達到效果,南韓客戶也不太敢用台灣的產品。隨後日亞化學又到日本,對台灣業者的代理商提出警告,最後也達成共識,不販售及採用台灣疑似侵權的產品。昨日,日亞化學更遠赴德國,向台灣業者的代理商提出警告,也達成初步共識,就是不再販售台灣疑似侵權的LED。 如此內外夾擊的大動作,看得出日亞化學對台灣疑似侵權的LED十分感冒,也以實際行動來明他們悍衛自有專利的決心,絕不容許外界對其決心有任何質疑。而在日亞化學的一連串動作後,台灣LED廠商有沒有受到傷?從各家業者的官方說法中得不答案,但從大家今年下半年來的業績表現不好來看,除了手機市場不如預期的因素外,部份原因應是被日亞從中作梗而無法順利出貨。
簡析德國自動駕駛與車聯網發展策略 英國內閣辦公室宣布開啟「2015年開放政府夥伴英國國家行動計畫」英國內閣辦公室於2015年7月13日宣布開啟「2015年開放政府夥伴英國國家行動計畫」,認為身處於轉型於科學與技術、面臨了資訊革命的世界,資訊開放可以促使英國政府現代化作業,這也是讓英國邁向較佳未來的最好方式。現在英國社會已然是此一趨勢,而英國政府的任務就是讓其更佳發展,「開放政府夥伴國家行動計畫」(Open Government Partnership National Action Plan)就是英國政府規劃發展的藍圖,承諾將提供給民眾一更加開放及有責的政府。 而英國政府目前已就部分政策(資訊公開、反貪腐、財政透明以及公開政策形成過程)有相關發展,分述於下列七點摘要說明: 更高的有責性(accountability):當英國政府開始公佈其政府部門相關出差數據後,英國政府發現高階官員變得更加傾向於搭乘飛機時乘坐經濟艙,以減少開銷。而溫莎-梅登黑德皇家自治市鎮議會(Windsor and Maidenhead Council)發布了公部門建築物的即時能源使用資訊,因此協助公部門減少16%的能源帳單費用。 更佳的資訊管理:英國政府發現,將訊息公開並使其可以利用,促使英國政府本身成為更佳成熟的資訊使用者。不僅英國政府會具備更高的有責性,同時也更能獲得公眾的資訊,而資訊公開則可使英國政府的決策具有實證依據。 資訊更加公開:資訊公開的優點不僅可使英國政府獲得公眾之資訊,同樣地公眾亦可得到政府的資訊,進而提升英國政府公共服務的水準。 數據經濟(data economy):目前英國有上千家創業的新興公司正在設法取得政府創新利用的相關資訊,透過資訊的公開亦同時可幫助英國此類數據經濟的成長。 國際合作:英國政府認為於在政府透明化方面需要更多的國際合作。英國政府將以官方協助的立場公開資訊,支持採掘產業(extractive industries)財政透明的全球性標準,並承諾建立一個公司受益所有權(company beneficial ownership)的註冊中心單位,將會有關於英國各家公司最終擁有及實質管控者清楚的資訊來源,藉此打擊貪腐弊案。 地方授權:除了上述所提者,英國政府同時亦要將此規劃落實到各地,將授權予蘇格蘭、威爾斯、北愛爾蘭以及英格蘭的城市等地區。從蘇格蘭聯合政府的運作,到曼徹斯特其地方企業夥伴(Local Enterprise Partnership, LEP)公開資訊的利用,這些設置都可以作為彼此學習的借鏡,並將開放政府的原則擴散到全英國。 採取如維基(Wiki)的模式形成政策:英國政府認為應該要朝向維基百科(Wikipedia)運作的模式發展,於政策規劃方面採取與各方更高度合作的方式進行,可使資訊得以廣泛擴散。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。