三星電子開發出色弱者使用的顯示器

  三星電子十六日表示,目前大舉開發色弱者使用的顯示器等新概念顯示器,可令色弱者與正常人一樣享受多媒体功能、增加了色彩保真功能(Magic Vision)的產品「SyncMaster 730C」和「SyncMaster 930C」。


  Magic Vision具有將顯示器的紅、綠、青三原色分別分類為十個等級的功能,由此使用者可依照最適合自己的色彩敏感度來調節顯示器的色彩。


   三星電子還計劃近期推出具有15001的明暗比、6ms(千分之一秒)響應速度、符合人體工學的三重鉸鏈(3-Hinge)底座的顯示器「SyncMaster750P」和具有世界最快響應速度4ms的顯示器「SyncMaster 930B」。


   三星電子強調,明暗比和響應速度的性能大幅提升,將可能終結「液晶顯示器不適合遊戲及動態視頻」這一爭議。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 三星電子開發出色弱者使用的顯示器, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=524&no=66&tp=1 (最後瀏覽日:2026/04/13)
引註此篇文章
你可能還會想看
標準必要專利與反托拉斯之成果運用法制-以高通案為例

台灣每人二氧化碳排放量逐年增加 全球第二十二名

  台灣自一九九○年至二○○四年止,平均每人排放量自五‧五七公噸大幅增加至十一‧五九公噸,以國際能源總署 (IEA )截至2002年統計,全球排放量前三名為美國、中國及俄羅斯,台灣則排名全球第22名。   主計處表示,依 IEA 統計資料庫顯示,二○○二年全球二氧化碳排放量前六名為美國(57.1億噸,占全球23.3﹪)、中國(34.7億噸,占14.2﹪)、俄羅斯(15.2億噸,占6.2 ﹪)、日本(11.8億噸,占4.8 ﹪)、印度(10.5億噸,占4.3﹪)及德國(8.5億噸,占3.5 ﹪)。台灣則排第 22 名(1990年為第28名),排放量占全球總量約1﹪,而經濟發展程度與我國相近的南韓、新加坡排名分別為第9名(4.7億噸,占1.9﹪)及52名(5500萬噸,占0.2﹪)。    行政院主計處據工研院能源與資源研究所統計,公佈最新「我國燃料燃燒排放二氧化碳」概況,台灣溫室氣體排放以二氧化碳為最大宗,佔八成以上,至二○○四年為 2.6億噸。   主計處指出,為抑制人為溫室氣體排放導致全球氣候變遷加劇現象,聯合國在一九九二年通過「聯合國氣候變化綱要公約」,且為落實排放管制工作,具有約束效力的「京都議定書」,已在今年二月十六日正式生效,期使在二○○八至二○一二年間,六種溫室氣體排放量平均應削減至比一九九○年低五‧二 %水準。在全球持續增溫、海平面上升及氣候變遷加劇下,台灣雖非京都議定書締約國,但政府相關部會順應國際永續發展潮流,正積極落實檢討溫室氣體排放減量政策。

德國資料倫理委員會針對未來數位化政策之資料運用發布建議報告

  德國資料倫理委員會(Datenethikkommission, DEK)於2019年10月針對未來數位化政策中的重點議題發布最終建議報告;包括演算法產生預測與決策的過程、人工智慧和資料運用等。德國資料倫理委員會是聯邦政府於2018年7月設置,由多位學者專家組成。委員會被設定的任務係在一年之內,制定一套資料倫理標準和指導方針,作為保護個人、維持社會共存(social coexistence)與捍衛資訊時代繁榮的建議。   最終建議報告內提出了幾項資料運用的指導原則,包含: 以人為本、以價值為導向的技術設計 在數位世界中加強數位技能和批判性思考 強化對個人人身自由、自決權和完整性的保護 促進負責與善意的資料使用 實施依風險調整的監管措施,並有效控制演算法系統 維護並促進民主與社會凝聚力 使數位化戰略與永續發展目標保持一致 加強德國和歐洲的數位主權

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP