美國產業安全局(Bureau of Industry and Security,下稱BIS)於2024年1月18日,針對直接或間接支持美國國家安全和關鍵基礎設施,全面評估供應鏈中成熟節點半導體設備的使用情況。本次調查將根據《1950年國防生產法》(Defense Production Act of 1950)第705條進行,以評估在美國關鍵產業(如電信、汽車、醫療設備和國防工業基地)的供應鏈中使用由中國公司生產的成熟節點晶片的程度和影響力。 BIS同時提供常見問答予各界參考,主要包括如下內容: (1)本次評估調查為一次性的資訊蒐集;不排除未來也可能依指示再次進行類似的評估。 (2)本次評估將提供後續政策制定的參考,以加強半導體供應鏈,促進傳統晶片生產的公平競爭,並降低中國對美國帶來的國家安全風險。 (3)自1986年以來,BIS已就造船、戰略性材料、太空和航空、火箭推進、彈藥和半導體等廣泛項目進行過約60多項評估以及150多項調查。 (4)商務部可能會公開一份主要調查結果的摘要說明。 (5)本次評估並非根據《2021年國防授權法案》(National Defense Authorization Act for Fiscal Year 2021,即俗稱之《晶片法》)第9902節規定進行。個別對調查的答覆不會影響申請《晶片法》或其他政府資助的資格或考量。 (6)本次評估並非BIS對於高階運算晶片規範的一部分,而是著重成熟節點或傳統晶片的舊技術。
英國公平貿易署公布有三分之一之網路商店未遵守消費者權利保護規範英國公平貿易署(Office of Fair Trading,簡稱OFT)公布於2007年底針對網路商店是否遵守消費者保護相關規範進行調查之結果,該項調查選定超過500家購物網站,就其是否遵守消費者保護法令,例如是否於網站上告知其公司所在地址、是否善盡告知消費者相關權利之義務、以及是否踐行標價透明化之規定等實際運行狀況進行調查統計。結果顯示,近乎有31%的網站並未確實遵守歐洲法律對於遠距交易的全額退費規範;有15%並未告知消費者其享有7天鑑賞期之權利;有14%的網站未告知確切之地址;另有40%的網站並未完全將價錢透明化,尤其並未告知商品於標示價格外必要之附加費用,而係於結帳時方告知,故OFT統計,每年消費者因此繳付的非預期費用總計約達一億英鎊。 於英國,消費者進行網路購物,受到遠距販售與電子商務相關規範之保護,例如2000年通過的消費者保護(遠距販售)規則(The Consumer Protection (Distance Selling)Regulations 2000)即就遠距交易中最重要的消費權利保障事項加以規範,此一法規主要適用於企業對消費者的組織性遠距交易活動,惟並不適用於與不動產買賣、金融服務提供、自動販賣設施、利用公共電話進行之行銷以及拍賣行為。主要規範重點,包括交易完成前必要資訊之提供、猶豫期內隨時解除契約之權限、契約解除權之例外、解約後獲得費用返還之權利、消費者返還貨品之義務、卡片付款受詐欺之解約權利等。
何謂「循環經濟」?循環經濟(Circular Economy)不僅是資源回收或廢棄物利用,循環經濟強調的核心概念是創造資源利用的最大效益,有別於傳統經濟模式在資源利用上「開採、製造、使用、丟棄」的線性歷程,循環經濟加入了減少廢棄物產生、資源重覆與有效利用的概念,讓資源利用與產品的生成不再是有去無回的單向線性歷程。 循環經濟的概念能夠套用到所有產品的生命歷程當中,自產品設計、生產、物流、銷售、使用、回收,到投入新的產品生命歷程,以環型的資源利用歷程,加入各種資源再利用的方式,並盡可能減少真正廢棄物的生成。與此相關聯的包含新興科技如大數據、物聯網之應用,到創新商業模式的生成,都可以是循環經濟的一部分。 循環經濟所揭示的概念,是讓產業發展與環境保護能攜手同行,創造資源利用的最大效益。在歐盟「展望2020計畫」(Horizon 2020)當中,也同樣把循環經濟列為計畫的重要領域之一,循環經濟時代來臨所揭櫫的不僅僅是在資源回收、或是幾種廢棄物再利用的技術,而是對經濟體系當中資源運用歷程的重新形塑,與新興科技及商業模式創新均密不可分。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。