為瞭解兒童及青少年透過行動裝置接取網路不當內容(inappropriate content)之情形,以及父母或監護人如何限制孩子使用網路設備等議題,英國通訊管理局(Office of Communications, Ofcom)委託英國第二大研究機構Ipsos MORI於2009年3-4月間,與797組7-16歲的兒童及青少年進行面對面的親子訪談,並於2009年9月公布該調查之研究結果。
根據該份兒童及青少年接取網路內容訪談的研究報告(Children’s and young people’s access to online content on mobile devices, games consoles and portable media players)顯示,分別有90%及74%的兒童及青少年透過遊戲裝置及行動電話使用接取網路,利用其他多媒體影音裝置上網的則占13%。另外有三分之二透過行動電話上網的使用者,可自由瀏覽及接取網路內容,而無任何內容分級或不當內容接取上的限制。該研究報告同時亦指出,對於使用行動電話上網的兒童及青少年,僅有10%的父母及監護人「非常關心」(major concerns)其瀏覽或接取不當網頁內容的問題;而使用遊戲裝置上網的兒童及青少年中,僅有11%的父母或監護人「非常關心」其對於接取或瀏覽不當內容之問題。對於兒童及青少年利用行動電話上網的管制議題上,父母及監護人多半透過通話及簡訊的使用量來限制兒童及青少年使用行動電話,而非直接要求兒童及青少年禁止其上網瀏覽不當的內容或教導其如何安全的使用網路。此外,就兒童及青少年本身使用網路所遇到的安全性問題上,介於11-16歲的青少年有54%表示,其需要有關如何維護隱私權及個人資料的建議與協助;而28%的青少年則提及,其需要資訊安全的建議,尤其是如何強化密碼及個人識別碼(personal identification numbers, PINs);至於7-11歲的兒童則多以「不知道」來回答調查問卷上的問題。
藉由該份研究報告數據的公開,英國政府開始針對兒童及青少年透過行動裝置使用網路之安全性問題進行研議,期望透過更多的宣導與教育,使父母及監護人更為關心兒童及青少年網路內容帶來的身心健康影響,並提昇父母、監護人、兒童及青少年對於網路使用的安全意識,以建立兒童及青少年對於網路安全的正確觀念。
本文為「經濟部產業技術司科技專案成果」
加拿大領導廠商 ICTV ,在 NCTA 國家商展 (NCTA National Show) 中,帶來了加拿大在互動電視內容方面的最新科技展現。 ICTV 是著名產品 HeadendWare 的製造商,此產品是在寬頻產業中傳輸互動電視內容最強大的平台。此一平台目前已取得多家加拿大廠商的協力合約,將共同在此平台上發展遊戲、娛樂與資訊內容等將關服務。 ICTV 解決方案部門的主管表示,加拿大確實是在互動數位內容方面的技術領先國家,並且正持續吸引更多的廠商與其合作。確實,加拿大的科技產業在全球屬領先地位,過去國內廠商對於新科技的注意力,大都放在美國、歐洲及日韓等國,或許,對加拿大進行更深入的關心與瞭解,可以挖掘到更多的報寶藏。
何謂「合作專利分類」?美國專利商標局(USPTO)與歐洲專利局(EPO)簽署協議,合作開發「以歐洲專利分類系統為基礎,並納入兩局分類實務特點」的共同分類系統:「合作專利分類」(Cooperative Patent Classification, CPC)系統,該系統為全球性的專利文件分類系統。USPTO與EPO為促進專利調合化,積極努力並共同合作建立CPC系統,該系統結合了兩局最好的分類作法,為專利技術文件建立一個共同且為國際間相容的分類系統,供專利審查使用。CPC於2013年1月1日宣布正式啟用,EPO開始使用CPC,不再使用歐洲專利分類(ECLA);2015年1月1日,USPTO正式宣告成功由美國專利分類(USPC)轉換至CPC。目前已有超過45個專利局與超過 25,000名審查人員使用CPC作為檢索工具,使CPC成為國際性的分類標準。
美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。
簡介美國FTC垃圾電郵法制施行成效報告