ITU國際電信聯盟秘書長Dr. Hanmasoun I Toure於2012年5月一場在加拿大舉行的無線通訊座談會中,針對之前國際上傳言聯合國與ITU將嘗試介入管理網際網路之說法進行澄清,並主張自1988年修改沿用至今的國際電信規則(ITRs)已不能應付目前新興之電信商業模式。
新型態的電信商業模式引發網路中立爭議的戰火,已延燒多時。從前的網際網路服務供應業者(ISP),主要遵守網際網路協定,扮演好笨水管(Dum Pipe)的角色。但隨著網際網路內容與各類應用服務的急速成長,各類封包的傳輸加重了原有管道的乘載負擔,再加上網際網路管理技術的演進,業者可透過網管技術對資訊封包的傳輸做更細緻的調節,逐漸形成內容傳輸優先次序差異化的新興商業模式,並且持續發展中。
依目前的技術能力,網際網路中任何內容傳輸的速度,皆能透過寬頻管理機制(QoS)進行調節。過去,QoS在國際通訊上,於各國的終端網路中進行調節工作。但現有的封包式的網路傳輸架構(packet-base networks)動搖了原有的秩序,不僅質量參數(quality parameters)大部分未受明確定義,QoS的角色也逐漸模糊。導致各系統本身無法完全控制跨網資訊傳輸的品質,影響各類服務在使用者的終端設備上所呈現的服務品質。對於需與固網或各類終端設備連結的行動通訊業者而言,如何解決這類問題儼然已成了燃眉之急。
目前ITU剛結束於日內瓦的年會,從會中委員會對其文件是否具備國際效力之議題討論,不難看出ITU對於網際網路管理態度已由被動態度轉為積極。未來ITU更期望,藉由年底舉行2012年國際電信世界大會(WCIT-12),重新修訂舊有國際電信規則(ITRs),引領網際網路的新秩序。
Google最近因他的Android作業系統,遭到其競爭對手向歐盟競爭法主管機關檢舉違反競爭法。以FairSearch.org為代表、Nokia、Microsoft及Oracle在內的Google競爭對手指控,Google企圖利用他的Android系統作為”特落伊之馬”(Trojanisches Pferd),以獲得行動業務的獨占地位並據以控制使用者資料。這是因為Google要求智慧型手機和平板電腦的製造商若要使用一些受歡迎的Google應用程式,如Google Maps或YouTube時,必須連同一系列其他的Google應用程式,一起放在這類行動設備的桌面上明顯位置。這項要求被競爭對手認為已影響到其他App提供者,且讓Google擁有隨時透過製造商銷售出的智慧型手機,掌控大量的用戶資料的能力。 此外,FairSearch.org也主張,因Google以不符成本的方式推廣他的Android作業系統,此舉讓其他作業系統的提供者難以回收投資。目前Google的Android作業系統已經在智慧型手機服務市場擁有獨占地位--其市場佔有率約為70%;在平版電腦的服務市場上,Android作業系統的佔有率也在增加之中。因此,歐盟執委會應對Google這些在行動市場上的不當行為展開嚴格調查,以避免歐洲的消費者因Google濫用市場的行為而受到損害。事實上FairSearch.org已經不是第一次指控Google違反競爭法,在此之前,FairSearch.org就曾向歐盟檢舉Google的搜尋引擎業務違反歐盟競爭法,其被指控就其搜尋引擎的搜尋結果,涉嫌對自己提供的服務提供優惠的差別待遇。歐盟在2010年11月正式對此展開調查,該案調查現已近尾聲,歐盟對此的立場傾向要求Google在他的搜尋結果應清楚地說明哪些是屬於Google集團的服務以作為標示。至於最新有關Android作業系統的指控,歐盟已表明會以放大鏡檢視,但歐盟是否會正式調查或將兩案合併審理,尚不清楚,Google也還未針對有關Android作業系統的指控做出回應。
美國FDA公布510(k)醫療器材上市前許可指引針對醫療器材上市前之審查規範提出更完善詳細之調整 拜登政府宣布採取促進負責任AI創新之新行動,以保護美國人民權利與安全拜登政府於2023年5月4日宣布將採取促進負責任AI創新之新行動,表示公司於部署或公開其產品前,應致力於降低AI風險,並強調風險管理與保障措施的重要性,以防止AI對個人與社會造成潛在危害。此外,拜登總統於2月簽署「透過聯邦政府進一步推動種族平等和支持弱勢群體」行政命令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government),指示聯邦政府機關在設計和使用AI等新技術時,應避免偏見,並保護公眾免受演算法歧視。促進負責任AI創新之新行動包括: 一、投資負責任AI的研發 美國國家科學基金會(National Science Foundation)宣布撥款1.4億美元以啟動7個新的國家AI研究所,未來全美將有25個國家級AI研究所。除有助於促進公私部門之間合作外,將強化AI研發基礎設施、支持多元化AI勞動力發展,及推動氣候、農業、能源、公共衛生、教育與資安等關鍵領域之突破。 二、公開評估現有的生成式AI系統(generative AI systems) Anthropic、Google、Hugging Face、微軟、NVIDIA、OpenAI和Stability AI等領先AI開發商將參與AI系統獨立公開評估,以評估其模型是否符合AI權利法案藍圖(Blueprint for an AI Bill of Rights),及AI風險管理框架(AI Risk Management Framework)所提出之原則與實踐,並使企業及開發人員能就所發現問題,進一步採取解決措施。 三、提出政策引導聯邦政府減輕AI風險及提升AI利用機會 美國行政管理預算局(Office of Management and Budget)宣布,將於2023年夏季發布有關聯邦政府機關各部門使用AI系統之政策指引草案,並徵詢公眾意見。
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。