澎湖發展風力發電 催生大規模離岸風場

  「能源」將是本世紀最受注目的議題之一 。為了有效規劃能源配置,台電擬定風力發電十年計畫,規畫在十年內建造30萬瓩的風力發電容量,其中在風車的故鄉澎湖,計畫催生231部風力發電風車,並將興建台澎海底電纜傳輸電力。未來,澎湖將成為台灣首座大規模的「離岸風場」。


  目前我國政府正大力發展再生能源,其中台電計畫在西部沿海大量興建風力發電廠,另外,在離島的澎湖也將大量興建風力電廠。風是澎湖獨特的天然資產,目前台電在澎湖白沙鄉中屯已經建有8部風車,未來將繼續在澎湖設置231部風車。


  在荒漠或海上興建風電場,是世界新趨勢,英國 2003年第一個離岸風場開始營運,下一世代新的離岸風電場總容量更將高達120萬瓩,德國兩個離岸風場容量高達30萬瓩,風場發出來的電將傳輸到歐洲中央電網。這些離岸風場不光是建在小島上,還包括以鋼或木頭架在淺海中的風車。

本文為「經濟部產業技術司科技專案成果」

※ 澎湖發展風力發電 催生大規模離岸風場, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=460&no=55&tp=1 (最後瀏覽日:2025/11/22)
引註此篇文章
你可能還會想看
美國聯邦交易委員會提出巨量資料報告,關注商業應用之潛在歧視性效果

  美國聯邦交易委員會(Federal Trade Commission, FTC)於2016年1月6日公布「巨量資料之商業應用」報告(Big Data: A Tool for Inclusion or Exclusion? Understanding the Issues),報告中歸納提出可供企業進一步思考之數項議題,期能藉此有助於企業確保巨量資料分析應用之正當合法性,並避免產生排除性或歧視性之對待,但同時亦能透過巨量資料之分析應用為消費者帶來最大的利益。FTC主委Edith Ramirez表示,巨量資料之重要性於商業之各領域均愈發凸顯,其對於消費者之潛在利益自是不言可喻,然企業仍應確保巨量資料之利用不會產生傷害消費者之結果。   「巨量資料之商業應用」報告經徵集公共意見與彙整相關研究後,聚焦於巨量資料生命週期的後端,亦即巨量資料被蒐集與分析之後的利用。報告中強調數種能幫助弱勢群體的巨量資料創新利用方式,例如依病患之生理特性量身訂作並提供醫療照護,或是新的消費者信用評等方式。報告同時也指出可能因為偏見或資料錯誤帶來的風險,像是信用卡發卡銀行降低某人信用額度的原因並非基於該持卡人之消費與還款記錄,而是與該持卡人被歸為「同一類型」之消費者所共同擁有之記錄與特徵。其次,報告對巨量資料於商業領域之利用可能涉及之法規進行了初步盤點,包括公平信用報告法(Fair Credit Reporting Act, FCRA)、與機會平等相關之聯邦立法—像是基因資訊平等法(Genetic Information Nondiscrimination Act, GINA)、以及聯邦交易委員會法,報告也列出7項預擬提問,協助企業因應巨量資料商業利用之法令遵循問題。

OECD發布「促進人工智慧風險管理互通性的通用指引」研究報告

經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。

美國網路安全聯盟提出網路安全策略建議報告

  美國網際網路安全聯盟(Internet Security Alliance,ISA)日前公佈一份新的報告,期使歐巴馬政府之「網路空間政策檢討」(Cyberspace Policy Review)能更進一步的落實。     網路安全聯盟主席Larry Clinton指出:「ISA對歐巴馬政府的網路安全政策表示支持,而目前民間機構需要設計一套規範,去落實ISA與政府對於網路安全重要議題共通之協議。本次所提出的報告,就是為了要提供能解決此一關鍵問題的架構。」     此份報告之標題為「利用ISA之社會契約模型執行歐巴馬政府之網路安全策略」(Implementing the Obama Cyber Security Strategy via the ISA Social Contract Model),而此報告強調必須重視網路安全的經濟意義。     Clinton認為,一旦討論到網路安全議題,會發現所有的經濟因素都對攻擊者有利,攻擊者總是能以簡單、成本低廉之攻擊方式得到巨大的利益。相對地,防守者(網路使用者)卻往往要付出高昂的成本。需要防護的領域太廣,而投資的回收通常很有限。必須從經濟的角度去平衡考慮成本與回收,才能建立具實效性且持續穩固的網路安全系統。     此份報告包含下列事項之架構:1.在商業計劃層面,創設政府與民間機構的合作夥伴關係,以強化網路安全;2.提出關於網路安全的國際議題;3.維持全球IT產業供應鏈的安全;4.建立新式資訊分享範例。     上述架構均依循ISA之網路安全社會契約模型,此一模型是源自於20世紀早期美國政府為了提供民間企業電信與電力服務,所成功建立之夥伴關係。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP