用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

資訊工業策進會科技法律研究所
2023年09月08日

生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。

惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。

壹、事件摘要

Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。

R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]

貳、生成式AI應用之潛在風險

雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]

一、能源使用及對環境危害

相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]

二、能力超出預期(Capability Overhang)

運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。

三、輸出結果有偏見

生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。

四、智慧財產權疑慮

生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。

五、缺乏驗證事實功能

生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。

六、數位犯罪增加與資安攻擊

過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。

七、敏感資料外洩

使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。

八、影子AI(Shadow AI)

影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。

參、事件評析

在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]

當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。

雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。

[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).

[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).

[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).

[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).

[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research  (last visited Aug. 29, 2023).

※ 用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9050&no=55&tp=1 (最後瀏覽日:2026/04/29)
引註此篇文章
你可能還會想看
伊利諾伊州通過人權法修正案,致力解決人工智慧可能造成之就業歧視風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 22px;} .NoPindent{text-indent: 2em; margin-left: 38px;} .No2indent{margin-left: 54px;} .No2Pindent{text-indent: 2em; margin-left: 54px} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 伊利諾伊州通過人權法修正案,致力解決人工智慧可能造成之就業歧視風險 資訊工業策進會科技法律研究所 2024年12月09日 伊利諾伊州人權法修正案(Amendment to the Illinois Human Rights Act)於2024年8月由伊利諾伊州州長簽署並通過,成為繼科羅拉多州人工智慧消費者保護法(Consumer Protections for Artificial Intelligence Act)之後美國第二部監管私部門使用人工智慧的法律。 本法規範重點在於解決人工智慧導入就業市場而衍生之就業歧視議題,伊利諾伊州透過修訂伊利諾伊州人權法,增加人工智慧(Artificial Intelligence)與生成式人工智慧(Generative Artificial Intelligence)之法律定義[1],以及增加伊利諾伊州的雇主使用人工智慧的相關義務,使員工在就業法律方面獲得更完善之保障。 壹、事件摘要 近年來人工智慧大量被使用在就業市場,例如:雇主使用人工智慧自動篩選履歷、績效管理等等。[2]人工智慧所伴隨的就業歧視議題,遂成為美國聯邦政府與各州政府近年來之人工智慧法制重點。 2023年2月,伊利諾伊州眾議員Jaime M. Andrade, Jr.將伊利諾伊州人權法修正案提交給議會書記官(Clerk)[3],伊利諾伊州人權法修正案在一系列的審議之後,終於在2024年5月通過參眾議院同意,並於2024年8月9日由伊利諾伊州州長簽署,使伊利諾伊州人權法案成為美國第二部監管私部門使用人工智慧的法律[4],修正部分將於2026年1月1日生效。[5] 貳、重點說明 伊利諾伊州人權法(Illinois Human Rights Act,775 ILCS 5)由伊利諾伊州人權部(The Illinois Department of Human Rights,IDHR)負責執行。其宗旨為確保伊利諾伊州內之所有人免受歧視,並就主要領域訂定規範,包含「公平住宅」、「金融」、「公共場所」、「教育領域之性騷擾」以及「就業」[6],其中有關就業歧視之議題為第5節所規範。 伊利諾伊州人權法修正案之目的為解決雇主使用人工智慧工具導致的就業歧視問題,因此主要修訂伊利諾伊州人權法案第5節有關「就業」之規定[7]。而有關本修正法案之執行細節,如通知方式、期限,由伊利諾伊州人權法授權伊利諾伊州人權部訂定並執行。[8] 一、法案修正內容 (一)增訂人工智慧與生成式人工智慧之定義 伊利諾伊州人權法修正案所修訂之範圍涵蓋人工智慧與生成式人工智慧之定義與使用,將新增於伊利諾伊州人權法第5節第2-101小節M款與N款: 1. 人工智慧(Artificial Intelligence)定義 伊利諾伊州人權法修正案將人工智慧定義為一種機器系統,該系統根據其接收之輸入資訊,為目標(不論明確或模糊)推論輸出結果,例如預測、內容、推薦或決策,這些輸出結果能夠影響真實與虛擬環境。[9]須注意此處所指人工智慧包含生成式人工智慧。[10] 2. 生成式人工智慧(Generative Artificial Intelligence)定義 新增之第5節第2-101小節N款將生成式人工智慧定義為一種自動化計算系統,當接受人類的提示、描述或問題,能生成模擬人類所創作之內容加以輸出,其生成內容包含且不限於文字、圖像、多媒體等。[11] (二)雇主不得因使用人工智慧導致員工權利受侵害 所謂「雇主」(Employer),根據伊利諾伊州人權法第5節第2-101小節B項之規定,係指在伊利諾伊州內雇用員工(Employee)者,其員工數目只要達一名即符合雇主之定義。[12]而依據伊利諾伊州人權法修正案之修訂內容,雇主所使用之人工智慧不得導致員工在招聘、僱用、晉升、續聘、培訓、解僱、紀律處分、任期或雇用條件等方面受到歧視。[13] 例如根據1964年《民權法》(Civil Rights Act of 1964)第七章,雇主在僱用、解雇、晉升等方面,不得因種族、膚色、國籍、性別或宗教信仰表現出就業歧視行為。[14]而民權法第七章所認定之歧視範圍包含了歧視性編碼(discriminatory coding),例如郵遞區號(Zip Codes),因為有許多少數族群會居住在特定區域。[15] 有鑑於此,伊利諾伊州人權法修正案也規範雇主於使用人工智慧時,不得使用郵遞區號作為本條款的替代指標[16],避免因郵遞區號造成就業歧視。 (三)雇主負有主動通知員工使用人工智慧工具情形之義務 伊利諾伊州人權法修正案新增雇主之通知義務,凡有使用人工智慧從事招聘、僱用、晉升、續聘、培訓、解僱、紀律處分、任期或雇用條件者,不得於未通知員工的情況下使用人工智慧為上述目的。[17]意即雇主應該主動應告知其員工有使用人工智慧進行前述行為之情事,至於通知的方式與時限則有待伊利諾伊州人權部訂定。 二、違法效力與救濟方式 (一)雇主可能需要負擔損害賠償費用與民事罰款 違反伊利諾伊州人權法修正案有關就業歧視禁止規範者,等同違反伊利諾伊州人權法。根據伊利諾伊州人權法第8-108條與第8-109條,違反者需要負擔相應的損害賠償,包含財產與非財產上的損害賠償費用[18],以及復職等補救措施。[19]除此之外,違反之雇主也可能面臨民事處罰。[20] (二)權利受侵害者得向伊利諾伊州人權部提起申訴或向法院提起訴訟 伊利諾伊州人權法案賦予民眾得以尋求救濟之權利,其方式大致有二,一為向伊利諾伊州人權部提出申訴,二則是直接向法院提起訴訟。 向伊利諾伊州人權部申訴者,將由人權部進行調查與調解[21]。調查後,伊利諾伊州人權部將提供申訴人調查報告[22],該調查報告將就申訴人遭受違法權利侵害之實質證據提出建議。[23]在伊利諾伊州人權部完成調查後,申訴人仍可至法院提起訴訟。[24] 參、事件評析 一、人工智慧就業歧視為美國當前優先處理之法制議題,雇主應加強法遵意識 演算法偏見所導致的歧視問題,正是美國各州政府所欲立法解決之議題。雖然尚未出現聯邦層級之法律,但各州卻於今年陸續通過相關法案。例如科羅拉多州州長於今年5月17日所簽署之《科羅拉多州人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act)[25]、猶他州以及本文介紹之伊利諾伊州人權法修正案,皆已針對人工智慧就業歧視訂定相應規範。 在人工智慧的監管趨勢中,雇主應善加注意人工智慧之應用是否符合當地法規範,以避免遭受處罰。 二、立法方式採修訂既有法律,執行細節另行訂定 伊利諾伊州人權法修正案將有關使用人工智慧之規定增訂於《伊利諾伊州人權法》,其執行細節則授權伊利諾伊州人權部訂定,尤其伊利諾伊州人權法修正案之部分條文僅說明雇主使用的人工智慧不得導致員工在招聘、聘用、晉升、解僱、紀律或僱用條款、特權或條件等方面受到基於受保護類別的歧視,並未詳細規定雇主應以何方式避免之,因此仍有持續關注之必要。 三、本法賦予當事人申訴管道,較完整保障就業權利 伊利諾伊州人權法可以作為民眾權利之請求基礎,向伊利諾伊州人權部提出申訴或至法院訴訟。因此當伊利諾伊州雇主違反伊利諾伊州人權法時,其員工得依法主張權利,可以請求復職或損害賠償,而非只是由主管機關對雇主裁罰。故對於當事人之就業權利,有相對完整之保障。 [1]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). [2]Illinois Enacts New Law Regulating Employer Use of Artificial Intelligence, Lexology, https://www.lexology.com/library/detail.aspx?g=dfebd021-1398-41eb-92ee-9631183fa8ce (last visited Sep. 9, 2024). [3]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [4]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [5]IL HB3773 | 2023-2024 | 103rd General Assembly, Legiscan, https://legiscan.com/IL/bill/HB3773/2023 (last visited Sep.9, 2024). [6]Illinois Human Rights Act, 775 ILCS §§1-5(2024). [7]Illinois Human Rights Act, 775 ILCS §5 (2024). [8]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). The Department shall adopt any rules necessary for the implementation and enforcement of this subdivision, including, but not limited to, rules on the circumstances and conditions that require notice, the time period for providing notice, and the means for providing notice. [9]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Artificial intelligence" means a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. [10]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Artificial intelligence" includes generative artificial intelligence. [11]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Generative artificial intelligence" means an automated computing system that, when prompted with human prompts, descriptions, or queries, can produce outputs that simulate human-produced content, including, but not limited to, the following: (1) textual outputs, such as short answers, essays, poetry , or longer compositions or answers; (2) image outputs, such as fine art, photographs, conceptual art, diagrams, and other images; (3) multimedia outputs, such as audio or video in the form of compositions, songs, or short-form or long-form audio or video; and (4) other content that would be otherwise produced by human means. [12]Illinois Human Rights Act, 775 ILCS §5/2-101 (2024). "Employer" includes: (a) any person employing one or more employees within Illinois during 20 or more calendar weeks within the calendar year of or preceding the alleged violation. [13]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [14]Civil Rights Act of 1964, title VII, 29 CFR Part 1601. [15]Civil Rights Act of 1964, title VII, 29 CFR Part 1601. [16]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [17]Illinois Human Rights Act, 775 ILCS §5/2-102 (2024). [18]Illinois Human Rights Act, 775 ILCS §5/8-108 (2024). [19]Illinois Human Rights Act, 775 ILCS §5/8-109 (2024). [20]Illinois Human Rights Act, 775 ILCS §5/8A-104 (2024). [21]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [22]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [23]Illinois Department of Human Right, Charge Process, https://dhr.illinois.gov/filing-a-charge/legal-review.html (last visited Oct. 22, 2024). [24]Illinois Department of Human Right, Procedures for Non-Housing Charges, https://dhr.illinois.gov/filing-a-charge/path-of-a-charge/procedures-for-non-housing-charges.html (last visited Oct. 22, 2024). [25]Consumer Protections for Artificial Intelligence, Colorado General Assembly, https://leg.colorado.gov/bills/sb24-205 (last visited Oct. 22, 2024).

中國大陸電子遊戲機內銷管制變革

中國大陸電子遊戲機內銷管制變革 科技法律研究所 法律研究員 蘇彥彰 2014年07月22日   自中國大陸國務院2000年發布「國務院辦公廳轉發文化部等部門關於開展電子遊戲經營場所專項治理意見的通知」起,至2013年12月21日國務院發佈「國務院關於在中國(上海)自由貿易試驗區內暫時調整有關行政法規和國務院文件規定的行政審批或者准入特別管理措施的決定」為止,中國大陸長期以來嚴格執行其境內的「遊戲機內銷禁令」,一方面限縮了中國大陸遊戲機市場的發展,另一方面也使手機、網路遊戲得以在中國大陸地區崛起。如今遊戲機禁令逐步鬆動,是否會帶動整體遊戲市場洗牌,值得關注。為此,以下回顧中國大陸近年來就家用、掌上型遊戲機的管制政策沿革,並提示逐步開放過程間可能出現的變化和問題。 壹、中國大陸自2000年起長期禁止電子遊戲主機的國內銷售   中國大陸國務院於2000年發布「國務院辦公廳轉發文化部等部門關於開展電子遊戲經營場所專項治理意見的通知」,當中明白表示「任何企業、個人不得再從事面向國內的電子遊戲裝置及其零、附件的生產、銷售活動」,此一決定造成風行於世界其它國家地區的家用、掌上型遊戲主機,在中國大陸遊戲市場喪失其合法性[1]。當時中國大陸官方就管制家用遊戲機政策所提出的理由是其「擾亂了社會治安秩序、對青少年的身心發展帶來潛在傷害」。   然事實上中國大陸對於可能同樣對青少年造成影響的網路遊戲,不僅未加以禁止,反而將其列為重點產業大力扶植,此一作為明顯和禁止電子遊戲主機內銷理由相矛盾。因此長期以來各大主力電子遊戲機廠商,如索尼、微軟、任天堂等,仍一直試圖以各種方法打入中國市場,並呼籲中國大陸政府開放對內銷售電子遊戲主機[2]。 貳、2013年宣布於上海自貿區內重新開放電子遊戲機之內銷   中國大陸對電子遊戲主機的禁令在持續13年後,在2013年9月18日中國國務院發布的「中國(上海)自由貿易試驗區總體方案」中,終於提出允許外資企業在自貿區從事遊戲設備的生產和銷售。此後,僅隔五天上海文廣新聞傳媒集團旗下的百視通便宣佈將與微軟在自貿區合資組建公司,宣稱主要業務是「設計、開發、製作遊戲、娛樂應用軟件及衍生產品;銷售、許可、市場行銷自產和協力廠商的遊戲、娛樂應用軟體;遊戲機相關技術諮詢和服務」[3]。緊接著在2013年12月21日國務院再發佈「國務院關於在中國(上海)自由貿易試驗區內暫時調整有關行政法規和國務院文件規定的行政審批或者准入特別管理措施的決定」,正式宣佈在自貿區內停止實施「遊戲機禁令」。至此,自貿區的遊戲機銷售大門正式向投資者開放。 參、電子遊戲機於中國大陸市場可能面對的問題   在前述微軟案例中,其採取的方式是透過合資模式進入中國大陸市場,有論者指出,之所以如此,主要原因在於上海自貿區仍是「禁止外商投資經營網路資料中心業務」。因此,對於微軟而言,仍需倚重百視通成熟的資料中心業務和機上盒業務牌照,以作為其在中國大陸地區網路服務的內容提供主體。除了前揭百視通宣佈將與微軟在自貿區合資組建公司外,另外兩間在電子遊戲機市場上佔有巨大版圖的索尼(SONY)和任天堂(NINTENDO)目前雖然還無具體動作,但業界人士預計這兩間在遊戲機產業界具有舉足輕重地位的公司,很有可能仿照百視通與微軟合資的模式,尋找具有中國境內相關執照的廠商合作,進入中國大陸市場。   另一方面,由於2014年6月底最新公布的上海自貿區「負面清單」[4]中,仍然明確規定自貿區內外商「禁止直接或間接從事和參與網絡遊戲運營服務」。由於遊戲機上遊戲目前已朝向具有網路連線功能趨勢發展,此類遊戲若經有關部門歸類為網路遊戲,由於外商不得直接或間接進行遊戲的營運,因此將為中國大陸國產遊戲軟體業者留下相當大的發展空間,可據以抵抗技術實力和知名度兼具的外商國際遊戲軟體大廠;反之若此類具網路連線功能的單機遊戲不在中國大陸網路遊戲營運資格之限制範圍內,外商可直接或間接介入經營,對於目前仍處於「全本土化」的中國大陸網路遊戲產業,勢必會帶來相當的衝擊和競爭。   此外,中國大陸雖然放鬆對電子遊戲主機的內銷管制,但對於關鍵的遊戲軟體,由於中國大陸對出版境外著作權人授權的電子出版物(含網路遊戲作品),仍需由新聞出版廣電總局進行內容審查[5],對於有意進入中國大陸電子遊戲機市場的企業,如何推出能通過內容審查卻又不失遊戲性的遊戲軟體,並讓長期以來已習慣於「低價」甚至「免費」網路遊戲的中國大陸消費者買單,都是相關產業有待克服的問題。 [1]蓝齐,〈国务院禁令解除游戏机成客厅娱乐新力量〉,《IT时代周刊》,2014年3期。 [2]徐涵,〈13年禁令一夕难解 游戏3巨头苦盼中国市场开放〉,《IT时代周刊》,2013年3期。 [3]诸悦,〈游戏机,“行货”来了〉,《小康。財智》,2013年10期。 [4]《中国(上海)自由贸易试验区外商投资准入特别管理措施(负面清单)(2014年修订)》(上海市人民政府公告2014年第1号)。 [5]《国务院对确需保留的行政审批项目设定行政许可的决定》(国务院令第412号2004.06.29)。

行政院決議就登陸重大投資案增設政策性審查

  繼陳水扁總統於元旦宣示兩岸經貿改採「積極管理、有效開放」後,行政院於 3 月 22 日 的院會中通過兩岸經貿「積極管理、有效開放」配套機制方案,方案執行面向涵蓋經濟、農業、金融、人員及小三通等經貿往來層向,建立管理目標及機制。其中在經濟類部分,為強化對大陸投資之有效管理,企業赴大陸地區超過一定金額或涉及敏感科技的重大投資案,增設「政策面審查」, 但方案中並未進一步指出一定金額與敏感性產業的定義。   經經濟部邀集陸委會等相關單位,討論積極管理配套措施中的「重大投資案」界定標準,會中決定政府將參考國內廠商設立晶圓廠的投資規模,制定相關審查辦法,將 1 億美元以上或涉及敏感科技的投資案,進行「兩階段審查」,即政策面審查及投審會委員會議審查,並列舉需要經過政策面審查的產業。   所謂政策面審查,依據行政院大陸委員會發布的「兩岸經貿『積極管理、有效開放』配套機制」指出,是由政府邀請企業負責人及經理人,就企業財務計畫、技術移轉、輸出設備、在台相對投資等項目進行協調,在確定企業具體承諾,並由業者出具同意政府於必要時將進行大陸投資事項實地查核的承諾書後,再送投審會開會審查。經濟部表示,業者經核准進行大陸投資後,主管機關應分別針對母公司在國內持續投資與技術升級情況、廠商在大陸營運及增資、擴廠情形,持續追蹤管理,主管機關於必要時並將赴中國實地查核,以落實積極管理。   行政院表示,配套機制方案大部份是強調現行作業的「強化管理措施」,至於相關部會提出新增或應加強的執行事項,原則上應在今( 95 )年 6 月 30 日前完成,涉及修法及建置資料庫的部分,應在今年年底前執行或規劃完成。

英國Ofcom公佈感知無線電技術之諮詢結論

  英國Ofcom於2011年9月1日公佈了關於閒置頻譜、地理定位(geolocation)資料庫與感知無線電的最新諮詢結論,本次行動使英國成為歐盟中第一個宣佈感知無線電發展計畫的國家。   Ofcom自2005年「數位紅利審查報告書」(Digital Dividend Review)以來,藉多次的聲明與諮詢確立數位紅利閒置頻譜使用的三大方向: 其一,將用於enhanced Wi-Fi,相較於當前使用2.4G的Wi-Fi技術,透過原本無線電視所使用的低頻段(介於470至790MHz間)特性,可使新技術的涵蓋範圍更廣、建築穿透力更強。 其二,透過無線傳輸連結大城市與鄉村地區,以建置鄉村地區之寬頻網路。 其三、用以智慧聯網(Machine-to-Machine Communications,或譯為物聯網)。   由於相關議題在歐盟仍屬初始階段,Ofcom決定先行發展國內和諧使用設備之標準,待歐盟確立標準後,再調整規管與之一致。   有意願經營資料庫之第三方,皆須向Ofcom申請其管理、或交由可信任機構管理之網站的清單,以供感知無線電設備選擇,導入資料庫供應商之競爭。Ofcom將與複數之資料庫供應商簽訂契約或管制協議;至於申請者的最低條件、契約內容與申請費用,仍待定義與諮詢   Ofcom預計於2013年正式使用該技術;此外,依據科技進展,亦考慮回收FM廣播頻段發展感知無線電。

TOP