為了實現在2018年將無人飛行載具(drone)運用於離島或山區的貨物配送之目標,日本國土交通省及產業經濟省自2017年9月起舉行了6次「關於無人飛行載具的目視外與越過第三人上空之飛行檢討會」,並於2018年3月29日發表了其所統整出無人載具進行無輔助者目視外飛行之相關要件。
依據現行航空法第132條之2、國土交通省頒布的「無人航空機飛行手冊」第3點、以及該發表的內容所示,無人載具的目視外飛行除須就機體、操縱技術與安全對策的面向具備相關要件,尚要求在操縱者之外,應配置輔助者,在飛行時監視飛行與氣象狀況,同時管制飛行路線正下方及其周邊的第三人出入,並綜整判斷上述資訊,適時給予操縱者安全飛行所必要的建議。
基此,該發表指出,考量到以現行的技術而言,地上設備與機上裝置仍難以完全取代輔助者所扮演的角色,故就無輔助者的情形,除在現行飛行基準上,附加:1. 飛行路線須選在第三人存在可能性低、且有人機不會飛行的場所與高度;2. 機體須具備預想中用途的相當飛航實績;3. 事前履勘飛行路線與擬定意外發生時的對策等條件外,又增設新的個別要件如下:
(1)就第三人的出入管理,設置能遠距離監視的攝影機,並在管制區域設置看板或海報等,以警示附近居民;
(2)對機體施以增加辨識度的塗裝,裝設可供遠距離監視有無有人機接近的攝影機、或將飛行計畫事前提供給有人機營運者;
(3)隨時掌握自機狀況,擬定在異常情形發生時降落的適切對策;
(4)在飛行路線或機體裝設氣象計以監測氣象狀態,令其得以在判明天候狀況超出機體所能負荷限度的當下即時降落。
預期該發表內容將會成為日本「面向空中產業革命之行程表」中,關於目視外飛行審查要點修訂項目的重要參考基準。
本文為「經濟部產業技術司科技專案成果」
英國廣播電視主管機關OFCOM於今年十月下旬公布,其將修酌廣播電視規則(Broadcasting Code),放寬商業廣播電視節目/頻道贊助規定。 現行的廣播電視規則禁止特定類型的節目接受贊助,例如新聞和時事節目不得接受贊助,也禁止特定種類之商品或服務廠商贊助特定節目,例如禁止酒商贊助兒童節目。 OFCOM表示將修酌現行規定,放寬節目/頻道贊助之規定,惟在兼顧節目編輯權以及兒童閱聽人之收視權益的考量下,將訂定相關的節目/頻道贊助限制,包括 1.必須使閱聽人知道節目有接受贊助,贊助廠商之資訊必須與節目和廣告內容所有區隔。 2.頻道贊助廠商之資訊不得出現於禁止接受贊助之節目內容中或播放時間之前、後。 3.贊助廠商資訊之呈現不得過於明顯。 4.節目頻道不得以贊助廠商之名稱命名。
美國駭客使用殭屍網路 遭判刑57個月鑑於網際網路發達,日常生活中之購物、儲匯業務均能透過網路完成,為生活增加許多的便利,然犯罪行為亦隨著科技之發展,悄悄的從傳統社會轉移到虛擬世界。根據美國司法部公佈的資料顯示,目前因違反美國 18 U.S.C. §1030 電腦詐欺法規定( Fraud and Related Activity in Connection with Computers )而進入司法程序的電腦犯罪案件,主要包括:竊取私人資料、線上非法交易(網路詐欺等)、駭客攻擊行為、製作或散佈病毒、遙控僵屍網路、竄改信用卡資料等行為。其中 Jeanson James Ancheta 案是一個具指標意義的案件。 今年五月洛杉磯 R. Gary Klausner 法官做出 Jeanson James Ancheta 案的判決,該案是美國境內第一起因為使用僵屍網路( botnets )而被判刑的案件。 Ancheta 被控攻擊政府網站、對數千台電腦主機進行駭客攻擊,並利用被攻擊的電腦串聯成僵屍網路,進行寄發廣告信或具破壞性的駭客攻擊以牟利而遭起訴。本案判決 Jeanson James Ancheta 因散佈電腦病毒、違反電腦詐欺法( Computer Fraud Abuse Act )、違反垃圾郵件法案( CAN-SPAM Act )被判以 57 個月的有期徒刑。 根據助理檢察官 Aquilina 表示,該案件是美國近年來處理電腦犯罪案件中,量刑最重的一個判決,希望透過此一判決,對僵屍網路操控者( botmasters )及居心不良的駭客產生嚇阻之效果。
日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。
中國對抗殭屍網路與木馬法制策略研析