日本鑒於為減少交通事故與因應少子化,與汽車的ICT革命等議題,由國土交通省於2016年11月25日設立「自動駕駛戰略本部」(自動運転戦略本部),並於同年12月9日召開第一次會議。討論的範圍則包括:為實現自動駕駛的環境整備、自動駕駛技術的研發、普及與促進,以及為實現自動駕駛的實證與社會試驗。 會議結論則由國土交通大臣指示針對「車輛的技術基準」、「年長者事故對策」、「事故發生時的賠償規則」、「大卡車列隊行走」、「以非平地休息服務站為據點的自動駕駛服務」等議題速成立工作小組,將對自動駕駛所應用技術進行各類型實證試驗。 其中,在「以非平地休息服務站為據點的自動駕駛服務」方面,已於2017年2月展開補助試驗計畫的募集;預計驗證的項目有分別針對一般(搭載2-10人)以及大型車輛(10人以上),結合GPS、雷達、攝影機等來瞭解障礙物資訊的車輛自動控制技術。 而在「大卡車列隊行走」方面,國土交通省則是在2016年已開始的實證試驗基礎上持續拓展。未來在2019年中後,並規劃將驗證範圍擴展至高速公路上驗證更長距離的自動駕駛。
電子工程師標準協會強調會員應以FRAND條件授權標準必要專利對於目前科技技術日新月異的ICT資訊通信產業而言,標準是搶奪全球市場的利器。當私有專利技術成為國際標準時,國際市場的競爭企業不得不向技術成為國際標準的標準必要專利權人取得授權。為避免前述情形形成技術壟斷,標準必要專利權人藉此哄抬權利金價格,目前國際標準制定組織多訂有組織的智財政策,要求標準提案者必須揭露專利持有情形,並且若提案成為標準必要專利權者須以其規定的合理條件提供授權。電子工程師標準協會 (Institute of Electrical and Electronics Engineers Standard Association, IEEE SA)為著名的標準制定組織之一。 電子工程師標準協會在去年3月開始,便實施了新的專利政策,強調其會員們必須在標準提案通過之後,授權該標準必要專利(Standard Essential Patent, SEP)時,須遵守公平、合理,且非歧視的授權規則(Fair, Reasonable and Non-discriminatory, FRAND)。此項政策受到Cisco以及Intel等公司支持聯名支持, Cisco表示FRAND的條件要求將使SEP擁有者難以收取不合理的權利金。 而在IEEE如此強調FRAND授權方式時,我國相關企業及公司應注意FRAND條件的國際發展趨勢,不僅要了解自身義務,也該知曉自身權益,在有爭議時抑或仿效國際企業做法,向法院提起訴訟,或向我國公平會提出檢舉。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
法國憲法委員會宣告《打擊網路仇恨言論法》違憲法國憲法委員會於今(2020)年6月18日宣告今年5月甫通過之《打擊網路仇恨言論法》(Lutte contre la haine sur internet, Fighting Hate on the Internet,又稱Avia Law)違憲,認該法侵害人民言論自由之權利。 為打擊網路上日益嚴重之仇恨性言論,法國國民議會於今年5月13日通過《打擊網路仇恨言論法》,該法旨在課予網路社交平台之責任,在其使用者提出檢舉後,平台應於24小時期限內移除明顯的不法言論,包含歧視、仇恨、暴力、煽動犯罪、涉及恐怖主義或兒童色情等,尤以,若該訊息涉及兒童色情或煽動恐怖主義者,則平台刪除該訊息之期限將縮短為1小時內。倘平台若未於期限內刪除之,面臨之罰緩最高達125萬歐元;如經法國高等視聽委員會(Conseil superieur de l'audiovisuel, CSA)審核,發現該平台之內容審查系統存在嚴重且反覆之缺陷者,則最高可對該平台處以其全球收入4%之罰鍰。 該法原定於今年7月1日施行,但經法國憲法委員會審查後,認該法如前述之多項條款要求私人企業判斷使用者之言論是否為明顯涉及非法,將鞏固私人審查權,高額罰款恐將促進平台積極刪除平台上之言論,違反憲法保障之言論自由,因而宣告該條款違憲無效。目前尚不確定法國政府是否會如期施行其餘條款,惟由該法即可看出,法國傾向授權CSA於對網路平台採取更嚴格監管之態度,然是否能有效抑制仇恨性言論,後續尚值得密切觀察。