英國電信管制機關Ofcom於2014年12月8日提出第二版通訊基礎建設報告(Infrastructure Report 2014)。依據英國2003年通訊法(Communications Act 2003)規定,Ofcom必須每三年向英國文化、媒體與體育大臣(Secretary of State for Culture, Media and Sport)提出英國電子通訊網路及服務檢討報告,此次報告是在2011年11月第一版通訊基礎建設報告之後,對於英國現有政策施行情況再進行檢討,重點在於檢視目前整體基礎設施建設情形,內容大致可區分為:1. 網路及服務的覆蓋率、成效以及範圍、2. 頻譜使用、3. 基礎設施共享、4. 安全性與彈性。
在未來整體的規劃上,報告指出以下三項是未來決策者可能會面臨的挑戰,在政策推行與改善時應該一併考量。
一、寬頻普及服務義務:在固網寬頻部分,2009年英國政府推行寬頻普及義務(Universal Service Commitment for Broadband),目前英國超過2Mbit/s的寬頻覆蓋率已達97%,超過10Mbit/s的寬頻覆蓋率則達到85%。在高速寬頻方面,目前已達75%覆蓋率,家戶可接取寬頻速度至少有30Mbit/s。英國政府希望能在2017年使95%可達接取24Mbit/s以上之寬頻。
在行動網路覆蓋率部分,目前英國政府投注一億五仟萬英鎊在新的基礎建設上,希望將行動網路覆蓋率普及於未有服務的家戶,並配合其他政策增加覆蓋率,例如以漫遊、靜態基礎設施共享或MVNO業者來完成。
二、新科技廣泛運用於市場:目前,手機營運商積極推展4G服務,希望終端用戶能達98%之覆蓋率。但在推行之際,尚需要政府的補助,以及法規政策的調整。
三、檢視未來基礎建設的發展:為促進不同科技產業的發展,對固網與行動寬頻速度不斷地進行改善仍為現階段重要的推行項目。因此,應定期依據市場的供需,持續進行政策上的調整。
此外,報告指出,將來在前述三項主要政策推行目標上,除了考量基礎建設應達成的網路速度以外,符合民眾需求的品質經驗等因素亦應一併在政策施行之時納入考量。Ofcom提出之報告重點在於能提供目前英國通訊基礎建設政策推行時之參考指標,此在後續我國的通訊基礎建設方面,亦能做為參酌,以因應物聯網或其他新興科技的迅速發展。
蘋果電腦不只試圖與擁有中國iPad商標之Proview公司尋求商標侵權和解,也宣稱可能反控Proview公司商標侵權指控之誹謗。 有關蘋果電腦與Proview的台灣分公司之間之交議是否合法,已進入法律程序,原因是蘋果電腦主張台灣分公司已出售iPad商標給一家英國公司,之後於2010年該公司再次轉售給蘋果電腦。但,Proview聲稱此一交易是台灣分公司不是深圳分公司,而蘋果電腦表示台灣分公司是代表深圳分公司。 故,蘋果電腦之律師可能控告Proview誹謗,並已寄出書面信函予Proview的執行長,表示:此一控告是基於不合法的行為,意圖不正當地妨礙蘋果電腦的生意與商業關係。 Proview於今年初針對蘋果電腦商標侵權要求16億之賠償,深圳分公司並於美國加州法院對蘋果電腦提起商標侵權訴訟。兩公司之爭訟在中國頗受關注,也造成蘋果電腦一度將iPad下架。,雖然於3月份新iPad一上市後,中國即獲準其銷售許可。 此外,Proview深圳分公司之律師表示在中國廣東高等人民法院的調解下,蘋果電腦曾提出一筆金額作為調解iPad所有權爭議的和解金,但不願透露該金額僅表示雙方對此仍有很大差距。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
日本自動駕駛損害賠償責任研究會報告為釐清自駕車事故發生時,該如何適用日本《汽車賠償法》相關規定,國土交通省於2016年11月設置「自動駕駛損害賠償責任研究會」,檢討︰(1)自動駕駛是否適用《汽車賠償法》上運用供用者概念?(2)汽車製造商在自動駕駛事故損害中應負何種責任?(3)因資料謬誤、通訊不良、被駭等原因導致事故發生時應如何處理?(4)利用自動駕駛系統時發生之自損事故,是否屬於《汽車賠償法》保護範圍等議題,並於2018年3月公布研究報告。針對上述各點,研究會認為目前仍宜維持現行法上「運行供用者」責任,由具有支配行駛地位及行駛利益者負損害賠償責任,故自駕車製造商或因系統被駭導致失去以及支配行駛之地位及行駛利益者,不負運行供用者責任。此外,研究報告亦指出,從《汽車賠償法》立法意旨在於保護和汽車行駛無關之被害者,以及迅速使被害者得到救濟觀之,自動駕駛系統下之自損事故,應仍為《汽車賠償法》保護範圍所及。