美國運輸部(Department of Transportation)於2018年10月4日公布「自駕車3.0政策文件」(Preparing for the Future of Transportation: Automated Vehicles 3.0)」,提出聯邦政府六項自駕車策略原則:
「自駕車3.0政策文件」並建立五個策略,包括利益相關人參與、典範實務(best practice)、自願性標準、目標研究(Targeted research)與規範現代化等,配合以上原則進行。美國運輸部並肯認其先前提出之「安全願景2.0(A Vision for Safety)」中之安全性架構,並鼓勵技術與服務開發商持續遵循自願性之安全評估,並重申將依循自我認證(self-certification)而非特定認證管制途徑,以促進規範之彈性。
本文為「經濟部產業技術司科技專案成果」
美國佛羅里達州一名商人日常透過網路管理其帳戶資金出入,其資金主要是在美國與中南美洲間流動。該名商人發現其銀行帳戶有異常的資金流向拉脫維亞而向警方報案,經調查發現他的電腦被植入名為Coreflood的特洛伊木馬程式,致其銀行帳戶存取密碼被盜用。該名商人認為銀行明知網路上有此種危險而怠於告知客戶,且銀行明知拉脫維亞以網路犯罪猖獗而著稱,對於其帳戶內大筆的異常資金流出亦疏於防範,爰對銀行提起訴訟。據信,本案為銀行儲戶因受網路詐欺而控告其銀行的首例。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
日本全球首度針對物聯網技術創立新的專利分類近年來,物聯網(Internet of Things, IOT)技術快速發展,隨著大勢所趨掀起一波專利申請熱潮。申請量增加的同時,亦代表相關技術的智財權使用者對於該領域的專利資訊需求大幅增加。然而,目前全球還沒有與此領域相關的專利分類系統協助大眾搜尋這些技術資訊。 有鑑於此,日本特許廳(Japan Patent Office,簡稱JPO)在今(2016)年11月14日針對物聯網技術領域全球首創新的專利分類ZIT。自2017年起,將可透過JPO的J-PlatPat系統利用此專利分類,檢索及分析物聯網相關的專利資訊。此專利分類能夠協助專利申請者更有效地檢索相關先前技術,亦能同時讓相關業者及專業人士了解當前物聯網技術的發展趨勢。 JPO不僅針對日本當地,亦努力與其他專利局合作。在世界五大專利局(簡稱IP5):包含歐洲專利局(European Patent Office,簡稱EPO)、韓國智慧財產局(Korean Intellectual Property Office,簡稱KIPO)、中國大陸知識產權局(the State Intellectual Property Office of the People’s Republic of China,簡稱SIPO)、美國專利商標局(The United States Patent and Trademark Office,簡稱USPTO)及JPO的專利局首長會議,以及世界智慧財產權組織(World Intellectual Property Organization,簡稱WIPO)的國際會議上,JPO積極鼓勵各國多加使用ZIT專利分類。 因應日本政府今年提出第四次産業革命戰略,瞄準三大核心技術其中亦包含了物聯網技術,JPO現在首創新的專利分類ZIT,更能提升物聯網的相關技術研發,為物聯網產業劃下重要里程碑。