2014年12月澳洲財政部就股權式群眾募資(Crowd-Sourced Equity Funding, CSEF)對外發佈政策框架選項的諮詢文件,為使新創企業容易對廣大的中小投資者籌集資金,該稿件承認政府需要採取行動,以克服現有的監管障礙,以利在澳洲廣泛的使用群眾募資這項工具。
提出討論文件的三個政策選項包括:
一、 公司和市場諮詢委員會(CAMAC)在2014年6月提出的法制框架。
二、 在2014年4月份於紐西蘭生效施行的紐西蘭模式(New Zealand model)的法制框架。
三、 維持現狀。
上述方案各具特色及優缺點,在公司和市場諮詢委員會(CAMAC)的提案中,建議專注於修改聯邦公司法,創造一類特殊的豁免上市公司(不需召開年度股東大會、提供經審計之財務報告等),且限制符合條件之小型企業才能納入,此外,設定200萬美元的募資上限,並可在12個月內在此範圍內提高募資;在中介機構部分,需持有澳大利亞金融服務執照(AFSL),對於盡職調查(Due diligence)所承擔的責任要求較低,須提供風險警告予參與群眾募資的投資者,且禁止提供其投資諮詢和貸款;對於投資者之規定,則設有個案均僅能投資2,500澳幣的上限以及12個月內投資股權式群眾募資,總金額不得超過10,000澳幣的限制。
若選擇第二方案,即使用已於2014年4月生效的紐西蘭法制框架,與第一方案相較具有諸多相似之處。然而,兩制間也存有顯著的差異,包括紐西蘭模式並未特別創設一類豁免上市公司、也未將進行股權式群眾募資的公司限制於小企業;對中介機構平台的收費標準不設限制,資訊揭露要求亦較低;而對參加投資者的投資金額限制原則上是近乎相同的。
如果選擇第三個維持現狀方案,在現行法制下意味著群眾募資起始時將面臨50名非員工股東的上限、股份公開報價禁令的限制,設立後須負擔如定期發佈經查核之財報等較一般私有企業更繁重的公司治理要求,此外,中介機構如群眾募資平台等也必須擁有澳大利亞金融服務執照(AFSL)。
諮詢文件訂立2014年12月8日至2015年2月6日這段期間內,向大眾公開徵求建議,並要求各利害關係人如中介機構,包括創投基金與群眾募資平台之意見。以推動群眾募資法制化,並尋求進一步的磋商出可能的立法草案,在確保減少監管障礙與保持充足投資者保護之間取得適當的平衡。可預期的未來這一年群眾募資的法制架構將在澳洲逐漸明朗化。
美國法官駁回Viacom公司對Google之影片分享網站YouTube所求償美金10億元之訴訟,這個重要的勝利潛在地強化眾多網路服務提供者所獲得之法律保護。。 此一判決結果並非表示這場爭執3年的法律大戲已結束,因為紐約媒體大亨Viacom立刻承諾對於這判決提起上訴。如最後此一判決是被確認,將可能使得影片創作在現今這數位時代中更難受到保護。 Viacom是在2007年3月對Google提起此一侵權訴訟,內容指出其電影、電視節目及其他內容被廣泛的置於YouTube網站,涉及故意侵權。Google是在2006年10月以16億5千萬買下YouTube,於本訴訟中Google以其符合數位千禧年著作權法(Digital Millennium Copyright Act)之要求,即時取下經權利人所通知後之侵權內容作為抗辯。此案因涉及數位千禧年著作權法中之安全港條款,因而被受關注。 美國紐約南區地方法院法官Stanton於判決中,表示數位內容之著作權保護,非取決於網路服務提供者是否監控其所提供的服務,而在於其於接獲著作權權利人通知後之反應。更進一步表示YouTube已盡其責任,2007年初在接獲Viacom通知其網站約有10萬件受著作權保護影片後,幾乎於接到通知之下一個工作天內便將這些影片取下。並且表示Viacom於本案所提出之法律論點太薄弱。不意外地,Viacom對此不悅的表示:此一判決基本上是有缺點的,並試圖訴諸於美國第二巡迴上訴法院。 然而,Google的法務長Kent Walker表示這是一場重要的勝利,不僅只是對Google也是對全球幾十億利用網路溝通與經驗分享的使用者,並期待將焦點集中在鼓勵毎天於全世界YouTube網站張貼並瀏覽這數量龐大且驚人的想法與創作表達。
英國展開醫療器材監管公眾意見徵詢並公布《人工智慧軟體醫材改革計畫》英國藥物及保健產品管理局(Medicines and Healthcare Products Regulatory Agency, MHRA)於2021年9月16日展開期待已久的「英國醫療器材監管的未來」公眾意見徵詢(Consultation on the Future of Medical Devices Regulation in the United Kingdom),並公布「人工智慧軟體醫材改革計畫」(Software and AI as a Medical Device Change Programme)。英國欲從醫療器材上市前核准至其壽命結束進行監管改革,徹底改變一般醫療器材與人工智慧軟體醫療器材之監管方式。意見徵詢已於2021年11月25日結束,而該修正案預計於2023年7月生效,與英國針對醫療器材停止使用歐盟CE(Conformité Européenne, 歐洲合格認證)標誌並要求採用英國UKCA(UK Conformity Assessed, 英國合格評定)標誌的日期一致。 人工智慧軟體醫材改革計畫則包含十一個工作項目(work package,下稱WP),WP1與WP2分別為監管資格與監管分類,皆涉及監管範圍之劃定;WP3與WP4分別涉及軟體醫材上市前與上市後,如何確保其安全性與有效性的監管之研究;WP5針對軟體醫材之網路安全進行規範;WP6與WP7涉及加速創新軟體醫材審核上市之特別機制,分別為類似「創新藥品藥證審核與近用途徑」 (innovative licensing and access pathway)的機制,以及允許適時上市並持續研究監控風險的「氣閘分類規則」(airlock classification rule);WP8為確保智慧型手機之健康應用程式安全、有效與品質之規範研究;WP9~WP11則分別針對人工智慧軟體醫材之安全與有效性、可解釋性(interpretability)以及演進式(adaptive)人工智慧進行法規調適之研究。 MHRA預計透過指引、標準、流程之公布而非立法方式實現其監管此領域的目標。MHRA亦透露,針對上述工作項目,其已與重點國家和國際機構進行研究合作,已有不少進展即將公布。
青少年在網路使用安全的議題上需要更多的協助及指引為瞭解兒童及青少年透過行動裝置接取網路不當內容(inappropriate content)之情形,以及父母或監護人如何限制孩子使用網路設備等議題,英國通訊管理局(Office of Communications, Ofcom)委託英國第二大研究機構Ipsos MORI於2009年3-4月間,與797組7-16歲的兒童及青少年進行面對面的親子訪談,並於2009年9月公布該調查之研究結果。 根據該份兒童及青少年接取網路內容訪談的研究報告(Children’s and young people’s access to online content on mobile devices, games consoles and portable media players)顯示,分別有90%及74%的兒童及青少年透過遊戲裝置及行動電話使用接取網路,利用其他多媒體影音裝置上網的則占13%。另外有三分之二透過行動電話上網的使用者,可自由瀏覽及接取網路內容,而無任何內容分級或不當內容接取上的限制。該研究報告同時亦指出,對於使用行動電話上網的兒童及青少年,僅有10%的父母及監護人「非常關心」(major concerns)其瀏覽或接取不當網頁內容的問題;而使用遊戲裝置上網的兒童及青少年中,僅有11%的父母或監護人「非常關心」其對於接取或瀏覽不當內容之問題。對於兒童及青少年利用行動電話上網的管制議題上,父母及監護人多半透過通話及簡訊的使用量來限制兒童及青少年使用行動電話,而非直接要求兒童及青少年禁止其上網瀏覽不當的內容或教導其如何安全的使用網路。此外,就兒童及青少年本身使用網路所遇到的安全性問題上,介於11-16歲的青少年有54%表示,其需要有關如何維護隱私權及個人資料的建議與協助;而28%的青少年則提及,其需要資訊安全的建議,尤其是如何強化密碼及個人識別碼(personal identification numbers, PINs);至於7-11歲的兒童則多以「不知道」來回答調查問卷上的問題。 藉由該份研究報告數據的公開,英國政府開始針對兒童及青少年透過行動裝置使用網路之安全性問題進行研議,期望透過更多的宣導與教育,使父母及監護人更為關心兒童及青少年網路內容帶來的身心健康影響,並提昇父母、監護人、兒童及青少年對於網路使用的安全意識,以建立兒童及青少年對於網路安全的正確觀念。
歐盟執委會通過關於《人工智慧責任指令》之立法提案歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。 《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。 歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。