日本著名的P2P(Peer to Peer)檔案共享軟體Winny因有侵害著作權法之公開傳輸權之爭議,兩名利用該軟體的使用者於2003年11月被日本群馬地檢起訴。隔年5月Winny軟體開發者「金子勇」因涉嫌構成幫助犯,被京都地檢起訴。全案歷經2006年京都地裁一審之有罪判決、2009年大阪高裁二審判決逆轉無罪、而檢方再上訴日本最高裁判所等程序。檢方於日前撤回上訴,並於2011年12月20日經最高裁判所裁定維持大阪高裁無罪判決,全案定讞。
大阪高裁認為,軟體的開發者未必能認識使用者會將軟體使用在非法目的上,難謂構成幫助之行為,因此,開發者本身對軟體的非法使用並不需要負責。不法行的情形應該是軟體開發者去鼓勵使用者利用軟體進行非法行為。
金子勇在20日召開記者會表示,網路上下載未經授權著作的問題還很多,將竭力解決相關問題,對自己之前開發的軟體而引起之相關侵權訴訟感到遺憾,並呼籲使用者誤濫用Winny,以實現更好的資訊社會。
而日本「電腦軟體著作權協會」(the Association of Copyright for Computer Software)向來致力於著作權之保護工作,協會對此結果表示並不否定P2P技術本身的價值中立性,但是將來會與相關著作權保護團體攜手合作,對於類似Winny的共享軟體之非法侵害,持續推動應對之策,並運用各種手段實現著作權受保護之健全環境。
歐美貿易與技術理事會(EU-U.S. Trade and Technology Council,TTC) 2024年4月4日至5日在比利時魯汶舉行第6屆部長會議,依據會後聯合聲明,雙方針對數位轉型所帶來的機遇與挑戰,同意在新興技術和數位環境等面向促進雙邊貿易和投資、進行經濟安全合作,並捍衛人權價值。未來雙方將針對AI、半導體、量子技術和6G無線通訊系統等制定互通機制及標準,簡述如下: (1) AI技術:採取「風險基礎方法」(risk-based approach)實施「可信任人工智慧和風險管理聯合路徑圖(Joint Roadmap for Trustworthy AI and Risk Management),提高透明度以降低公民及社會使用AI的風險;更新關鍵AI術語清單(a list of key AI terms),減少雙方於概念認知上的誤差;承諾建立對話機制,以深化雙邊合作。 (2) 半導體:為促進半導體供應鏈韌性(resilience)與協調(coordination),將延長實施「供應鏈早期預警機制」(joint early warning mechanism)及「透明機制」(transparency mechanism)兩項行政安排,共同解決半導體產業市場扭曲、供應鏈過度依賴特定國家等挑戰。 (3) 量子技術:雙方將成立量子工作小組(Quantum Task Force),以制定統一量子技術標準,加速技術研發。 (4) 6G技術:雙方通過「6G願景」(6G vision),並對於未來研究合作簽署行政安排(administration arrangement),建立6G技術開發共同原則。 歐美雙方期望透過上述作法,促進半導體和關鍵技術研發和供應鏈多元化,以確保經濟安全及落實數位轉型,確保歐美於新興技術和數位環境之領導地位。
從「氣候變遷行動方案」觀察美國能源科技法制政策發展 德國聯邦專利法院認定人工智慧不具專利發明人資格 但特別點出人工智慧在發明之貢獻德國聯邦專利法院在2021年11月中旬對美國發明人Stephen Thaler(後稱Dr. Thaler)所開發之AI系統(DABUS)是否能成為專利發明人作出判決,儘管AI在研發過程中協助發現問題並解決問題,法院仍認為專利發明人必須為自然人,但特別補充說明這項發明確實有得到AI的幫助。 Dr. Thaler及其法律團隊將該發明在各國進行專利申請。盤點各國智財局或法院之考量:美國專利商標局(USPTO)強調發明人應以自然人為由排除這類案件;儘管英國智財局(UKIPO)認同DABUS富有創新,卻否認其為合法發明人,不過認為有必要檢視AI技術帶給現存專利制度的挑戰,並已啟動針對AI發明之法律改革計畫;至於歐洲專利局(EPO)以不符合自然人或實體等資格而核駁這類案件,然而上訴結果將於12月下旬作出判決。 惟澳洲聯邦法院在7月底逆轉做出法律並未禁止以AI為發明人而提出專利申請之判決,這也是繼南非允許AI作為發明人而取得專利權之後的第二個案例。 根據各國智財局、世界智慧財產權組織(WIPO)與法院多將智慧財產係來自於心智創作,卻未定義該心智創作是來自於人類或AI,可預見非人類主體將可被視為發明人並授予智慧財產權。此外,現行智財法律也有重新檢視與定義之必要性,包括釐清AI演算法與AI開發者之角色以重新定義發明人資格或所有權人等議題。
澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).