本文為「經濟部產業技術司科技專案成果」
自2009年起,歐盟執委會(European Commission,下稱執委會)開始推動統一化歐盟境內手機及其他類似電子設備之充電器,以減少不必要的電子垃圾,並改善電子設備充電器規格紊亂所造成消費者的不便利。多年來,市面上充電連接埠的規格已從過去的三十多種減少為USB Type-C、USB micro-B以及Lightning三種規格。執委會更於今(2021)年9月23日提出《無線電設備指令》(Radio Equipment Directive, 2014/53/EU)增修條文提案,欲透過立法建立統一的充電解決方案,該提案包括: 1.統一充電連接埠 USB Type-C為所有智慧型手機、平板、相機以及耳機等電子設備的通用充電連接埠,一個USB Type-C充電器將能為各種廠牌的產品充電。 2.統一快速充電技術 防止各製造商無正當理由地限制充電速度,並確保電子設備在使用任何可相容的充電器時都能有相同的充電速度。 3.電子設備及充電器的分拆販售 防止消費者被迫購買不必要的充電器,並減少未使用的充電器數量,進而達成降低電子垃圾之目的。 4.提供消費者更多資訊 製造商應提供消費者其產品之充電性能相關資訊,以利消費者判斷其現有的充電器與該產品是否相容,該資訊亦有助於消費者為該產品選購相容的充電器。 此提案仍需待歐洲議會(European Parliament)及歐盟部長理事會(Council of the European Union)決議,若決議通過,製造商將有24個月的過渡期來調整產品設計。
德國最新無人機之法規命令(Die Drohnen-verordnug)德國在2017年的3月通過了最新的無人機相關法規命令,亦包含傳統模型飛機的部分,並於2017年4月7日生效,新的修正重點如下: 模型飛機如在專用的機場飛行則維持不變,但如果離開專用機場作使用時,則必須安裝記載有所有人姓名及住址的徽章。 在非專用機場使用時,無人機與模型飛機的共通事項: (1) 超過0.25公斤時:必須安裝記載有所有人姓名及住址的徽章。 (2) 超過2公斤時:除前述的徽章外,還必須有特別的有關無人機或模型飛機的專業知識證明;而該知識證明,可以從聯邦航空局(Luftfahrt-Bunderamt)或民間飛行運動協會(Luftsportverband)透過考試取得。 (3) 超過5公斤時:除前述的條件外,需要從各地區航空管理部門(Landesluftfahrtbehörden)追加額外的升空許可(Aufsteigserlaubnis)。 關於操作者的規範: (1) 無人機的操作者,除了在模型飛機基地外,原則上禁止飛行超過100米高,但可向地區航空管理部門提出申請。 (2) 模型飛行器操作者須有專業知識證明。 (3) 無人機與模型飛行器只能在能肉眼可見下飛行。 一般適用規定:無人機與模型飛行器不能阻礙或危害人力駕駛飛行器。 禁止事項: (1) 所有的無人機或模型飛行器不得在敏感區域(例如:警察機關、救難隊、大群民眾所在地、主幹道、航空起降區等)使用。 (2) 無人機與模型飛行器不得於住宅區接收、播送、以及紀錄影片、聲音、或是無線電訊號。 綜合觀察可以發現,德國對於無人機的使用規範(或限制),可以歸結至三 方面,對於使用人的規範、無人機的大小以及使用地點的限制。
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。