日本慈惠醫科大學研究人員用人類幹細胞,植入實驗鼠胚胎中,培育出具有人基因的複製腎,能過濾尿液。
研究人員先把生成腎臟的神經營養因子基因植入骨髓含有的幹細胞,然後在實驗鼠胚胎未生成腎臟前,將幹細胞注入胚胎中可生成腎臟的部位。隨後,研究人員摘出胚胎中相當於腎臟的部分。經過六天的培養,這部分組織長出了讓腎臟發揮功能的腎單位及其周圍的腎間質。基因檢查結果確認該腎臟是由人的骨髓幹細胞生成。研究人員再將這一"複製腎"移植到其他實驗鼠的腹部,約二周時間後,"複製腎"生長到一百五十毫克。
利用骨髓幹細胞進行再生醫療,生成皮膚和軟骨等已經進入實用階段,但利用動物再生人類器官還沒有先例。參加研究的橫尾隆認為,從理論上說,用這種方法生成的器官不會發生排異反應。除腎臟外,這種方法還可用來生成胰腺和肝臟。
本文為「經濟部產業技術司科技專案成果」
日本總務省遵照其「u化日本政策報告」(2004年12月公布)以及IT策略本部「IT新改革策略」(今年1月公布)之規劃方向,8月11日正式對外公布「2010次世代寬頻整備策略」,以2010年該國寬頻覆蓋率超過百分之九十,作為寬頻基礎建設整備之政策目標。 詳言之,依照前開策略之記載,一則希望2008年底該國所有市町村均得接取寬頻,以求消弭目前尚有部分地區根本無從接取寬頻之區域落差現象,再則預計2010年底,全國能有超過百分之九十的家庭得以接取上傳下載雙向速度均超過30Mbps之超高速寬頻。於此過程,固然原則上係由民間主導相關整備活動之進行,惟官方亦應本諸技術中立之立場,施行適切之競爭政策,規劃吸引業者投資之誘因;其中,位處偏遠、投資效益可能偏低之地區,宜藉由中央、地方、居民、業者等各界相互交流合作,並配合技術層面之進展,妥善進行。另外,宣導整備成果、開發創新應用、維繫安全環境等,均屬重要,亦應於前開寬頻整備過程一併積極推動,以利後效。
法蘭克福最高法院判決「不好喝保證退費」電視廣告違反「不正競爭防止法法蘭克福最高法院在2006年10月19日對於一則「不好喝保證退費」電視廣告,判決被告對消費者因未盡到資訊告知義務(Informationspflicht)而違反不正競爭防止法(UWG)。 被告在一則促銷其所生產之礦泉水電視廣告中,打上「不好喝保證退費」等標語,但關於詳細退費資訊在電視廣告中並無說明,進一步的退費資訊,如退費條件、如何退費等,是黏在寶特瓶瓶身,需待消費者將此標籤撕下,才得以看到相關的退費資訊。原告是符合不正競爭防止法(UWG)第8條第3項第2款「以促進工商利益為目的而具備權利能力之工商團體」(Wettwerbsverband);原告認為被告違反「不正競爭防止法(UWG)」第4條第4款之規定:「未清楚標示引起消費者購買決心之促銷佸動的條件」。 法蘭克福最高法院(OLG Frankfurt a.M.)首先確認被告所刊登之「不好喝保證退費」電視廣告已經符合不正競爭防止法第4條第4款「促銷活動」之構成要件。再者,法院認為在被告所刊登之電視廣告及附在產品瓶身之退費條件標籤並不足以使消費者明確得知退費資訊。被告抗辯,基於現實因素,並無法將具體的保證退費條件一一細數在電視廣告中;惟法蘭克福最高法院認為,即使消費者可以透過其他管道得到相關的退費資訊,亦無法補正被告在電視廣告中未盡到告知義務之缺失。 對於此種類似噱頭之電子媒體行銷手法,是否可以只在產品瓶身明示退費規則,而在電子媒體廣告中忽略不提,是否有不實廣告及消費者權益如何保障等問題,都值得注意。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。
從促參法修正談我國通訊傳播網路產業輔導之法制化