美國「聯邦通訊委員會」(Federal Communications Commission,FCC)於2010年12月21日表決通過「網路中立性」(Net Neutrality)規則,確保網際網路的自由開放,限制網路服務提供者(ISP)不得針對網路流量與內容進行不合理的管制,保障消費者權益、意見表達的自由、網路服務的競爭與創新。 網路中立性爭議由來已久,自2005年FCC公布網際網路政策聲明以來,對於管制機關是否介入ISP對於網際網路流量與內容之管理,一直爭執不斷。網路上服務與內容的創新驅動寬頻網路的發展,寬頻網路的普及又促進更多的創新與投資,在此時,寬頻網路壅塞的問題也日益嚴重,寬頻ISP為了確保競爭優勢,開始針對網路的流量進行管理,投入新技術建立網路流量的優先權與過濾機制中。 為了避免ISP管理網路的行為影響網路的競爭與創新發展,FCC自2009年開始探討網路中立性之管理規則。 本次公布之網路中立性規則包含五個部分: 1. 透明度(Transparency): ISP應公開揭露關於網路管理的資訊,包含網路接取服務之管理措施、商業條款,提供消費者及上下游業者做出適當的選擇。 2. 禁止封鎖(No Blocking)行為: 不得任意封鎖使用者及其他網路服務或內容提供者合法使用、接取網路的權利,凡是合法的內容、服務、應用等,皆不得被阻止。 3. 禁止不合理差別待遇(No Unreasonable Discrimination): 不得無故對於消費者接取網路之內容與流量進行差別待遇。 4. 定義合理的網路管理行為(Reasonable network management): 合理的網路管理包括:確保網路的安全與完整、解決網路壅塞的狀況、基於消費者自願的控制與過濾機制。 5. 區分無線行動網路與特殊服務 考量無線行動網路在速度、容量上與固定網路的差異,FCC制訂相關量測的規範,在合理網路管理的條件上,無線行動網路與固定網路將有不同的管制密度。 而FCC也將區分網路特殊服務,有別於單純的寬頻接取服務,特殊服務是在基礎網路上提供主要專業用途的服務,例如VOIP或視訊服務(IPTV),以促進更多元的私人網路投資與更創新的網路服務發展。 新的網路中立性規則仍然受到許多的批評,倡議者認為FCC宣示的管制強度太低,ISP有可能以各種手段迴避管制,公眾利益團體亦認為FCC未禁止「付費優先權」(Pay for priority),將使網際網路出現「高速/慢速」的不公平狀況;而反對者則認為FCC的管制將影響網路的創新服務發展,不利未來的投資。然而無論如何,這仍是在Comcast案受挫後,FCC維護網際網路的開放性所重新邁出之重要一步。
Syngenta位於巴西Parana的基改研究機構遭到當地政府沒收瑞士跨國種子及作物科技公司Syngenta AG (SYT)正與巴西政府為基改活動展開訴訟。去(2006)年11月9日,Syngenta在巴西境內基改作物研究機構被迫關閉,研究機構所在地的Parana州州政府並以Syngenta違反巴西聯邦環保法規為由,沒收其所有投資的資產。Parana州境內有一座自然保護區-伊瓜蘇國家公園,伊瓜蘇國家公園是舉世著名的伊瓜蘇瀑布(Iguacu Falls)的所在地。根據巴西聯邦環保法規規定,基改作物不得栽種於自然保育區的十公里以內。 Syngenta位於Parana州的基改研究機構佔地達123公頃,然而距離伊瓜蘇國家公園卻僅約有六公里。1986年以來,Syngenta即已擁有該研究區域的產權,目前Syngenta已向巴西聯邦法院提出告訴,主張其得以合法在研究機構所在地進行相關研究。Syngenta抗辯理由主要有二:其一,Syngenta在該地進行基改作物田間試驗的許可,是由巴西聯邦政府的生物安全主管機關CTNBio所核發;其二,2006年初,巴西總統已將前述10公里的栽種間隔距離更改為500公尺。Parana州政府、巴西環境保護局Ibama、主張農業改革的活動份子等則主張,新的500公尺間隔規定不適用於Syngenta,蓋該公司早在巴西總統簽署新規定以前即已展開相關的試驗活動,Parana州環保主管機關早已祭出處罰,但Syngenta迄今未繳納罰鍰。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
日本醫藥品醫療器材等法修正研析―以醫療應用軟體為中心