歐盟執委會於2019年3月13日針對清潔,聯網和自動化移動戰略,公布智慧運輸系統指令授權規則(Commission Delegated Regulation of 13.3.2019 supplementing Directive 2010/40/EU of the European Parliament and of the Council with regard to the deployment and operational use of cooperative intelligent transport systems),該授權規則(Delegated Regulation)係歐盟執委會為執行智慧運輸系統指令(ITS Directive)所制訂之相關細則,其目的使執委會與會員國合作提出指導分針,進一步讓各國能夠對自動及聯網化駕駛車輛進行型式認可,以加速相關創新運輸技術於歐洲協同式智慧運輸系統(C-ITS)之發展。其創新技術包含使車輛間可相互「交談」,或與道路基礎設施以及其他道路使用者「交談」,可應用在例如危險情況,道路施工和掌控交通號誌時間,將使公路運輸更安全,更清潔,更高效率。授權規則將符合容克委員會(Juncker Commission),即現任歐盟執委會主席容克領導的執政團隊,其所提出的清潔移動提案( Proposals on clean mobility),是歐盟移動現代化的另一步驟,也為本世紀下半葉的氣候中和(climate neutral)目標,即達到溫室氣體排放總量為零之目標作準備,並持續達到歐盟2050年交通事故近零死亡或零嚴重傷害的目標。
歐盟移動及運輸專員Violeta Bulc表示:「此決定將為車輛製造商,道路營運者和其他人提供一個法源依據,以便於歐洲開始大規模發展C-ITS服務,同時對新技術和市場發展持開放態度。此將極力促進我們實現我們對道路安全的願景,並作為實現聯網化和自動化移動性的重要基礎。」
車輛,交通號誌和高速公路在裝配合規之聯網技術裝置後,可向周圍的所有交通使用者發送標準化之訊息,此將是實現車間通訊的重要里程碑。該授權規則將確保不同系統間擁有協同工作能力,使所有配備該技術的站點能在開放網路中安全地與任何其他站點交換資訊,並讓系統可順利運行,透過車輛間以及車輛和交通基礎設施之間的連接,也能幫助駕駛員做出正確的決策並視交通狀況來改善道路安全性、交通效率及舒適性。
本文為「經濟部產業技術司科技專案成果」
Google最近因他的Android作業系統,遭到其競爭對手向歐盟競爭法主管機關檢舉違反競爭法。以FairSearch.org為代表、Nokia、Microsoft及Oracle在內的Google競爭對手指控,Google企圖利用他的Android系統作為”特落伊之馬”(Trojanisches Pferd),以獲得行動業務的獨占地位並據以控制使用者資料。這是因為Google要求智慧型手機和平板電腦的製造商若要使用一些受歡迎的Google應用程式,如Google Maps或YouTube時,必須連同一系列其他的Google應用程式,一起放在這類行動設備的桌面上明顯位置。這項要求被競爭對手認為已影響到其他App提供者,且讓Google擁有隨時透過製造商銷售出的智慧型手機,掌控大量的用戶資料的能力。 此外,FairSearch.org也主張,因Google以不符成本的方式推廣他的Android作業系統,此舉讓其他作業系統的提供者難以回收投資。目前Google的Android作業系統已經在智慧型手機服務市場擁有獨占地位--其市場佔有率約為70%;在平版電腦的服務市場上,Android作業系統的佔有率也在增加之中。因此,歐盟執委會應對Google這些在行動市場上的不當行為展開嚴格調查,以避免歐洲的消費者因Google濫用市場的行為而受到損害。事實上FairSearch.org已經不是第一次指控Google違反競爭法,在此之前,FairSearch.org就曾向歐盟檢舉Google的搜尋引擎業務違反歐盟競爭法,其被指控就其搜尋引擎的搜尋結果,涉嫌對自己提供的服務提供優惠的差別待遇。歐盟在2010年11月正式對此展開調查,該案調查現已近尾聲,歐盟對此的立場傾向要求Google在他的搜尋結果應清楚地說明哪些是屬於Google集團的服務以作為標示。至於最新有關Android作業系統的指控,歐盟已表明會以放大鏡檢視,但歐盟是否會正式調查或將兩案合併審理,尚不清楚,Google也還未針對有關Android作業系統的指控做出回應。
美國藥品學會建議調整HIPAA隱私權規範以兼顧醫療研究及隱私保護隸屬美國科學院(National Academy of Sciences)之藥品學會(Institute of Medicine)於2009年2月4日發表一份研究報告,指出美國醫療保險可攜及責任法的隱私權規範(HIPAA, Privacy Rule),對於醫療研究中有關個人健康資訊之取得及利用的規定未盡周全,不僅可能成為進行醫療研究時的障礙,亦未能完善保障個人健康資訊。 在目前的規範架構下,是否允許資訊主體概括授權其資料供後續研究利用,並不明確;另外,在以取得資料主體之授權為原則,例外不需取得授權但必須由審查委員會判斷其妥適性的情況下,亦未有足夠明確的標準可資審查委員會判斷依循,此些問題不僅使得醫療研究中之資料取得及運用,產生若干疑慮,亦突顯個人相關健康資料保護之不足。 該報告建議國會應立法授權主管機關制訂一套新的準則,將個人隱私、資料安全及資訊運用透明化等標準,一體適用於所有醫療相關研究的資料取得及利用上;在未來的新準則中,應促進去名化醫療資訊之運用,同時對於未取得資料主體授權的資料逆向識別(re-identification)行為,應增設罰則;此外,審查委員會在判斷得否不經資料主體授權而以其資料進行研究之妥適性時,亦應納入道德考量因素,倘若研究係由聯邦層級的組織所主導,則研究團隊應先證明其已採取充分保護資料隱私及安全的措施,藉以平衡隱私權保護與醫療研究的拉鋸。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
美國加密法案隨潮流再起緣起於2016年的加密法案(ENCRYPT Act),由於今年發生了臉書劍橋分析事件,以及歐盟GDPR的影響,本此法案再提的聲勢如浪潮襲來,不僅眾多議員附和,連企業(如:電子前線基金會Electronic Frontier Foundation,EFF)都予以支持。 加密法案的主要內容係以兩方面進行加密應用之保護, 各州州政府不得授權或要求產品或服務的製造商、開發商、銷售商或供應商,(A)設計或更改產品或服務中的安全功能,以供其進行監視或允許其進行實體搜索;(B)使其有能力解密或便於理解加密應用後的內容。 各州州政府不得禁止加密或類似安全功能的產品或服務,進行製造、銷售或租賃、提供銷售或租賃, 或向公眾提供覆蓋的產品或服務。此外,法案亦針對相關服務或產品的定義作了明確的說明。 本法案的主要提案者美國眾議員Ted Lieu指出,與加密或資料存取相關的問題,皆應在聯邦政府的層級進行討論,而就其本身電腦科學的專業,指出在各州間保有不同的加密應用執法標準,對資安、消費者、創新,以及執法本身都是不利的,引此本法案的推動旨在強化州際商業和經濟安全,以及網路安全問題,希望能對加密應用議題作全國性的討論,而不會損害使用者在過程中的安全性。