新加坡科技與研究局(Agency for Science, Technology and Research)於2017年7月26日提出未來工廠(Toward the factories of the future)概念及相關研究方向,自動化(Automation)、機器人(robotics)、先進電腦輔助設計(advanced computer-aided design)、感測和診斷技術(sensing and diagnostic technologies)將徹底改變現代工廠,可製造的產品範圍廣泛,從微型車乃至於飛機皆可生產。積層製造(Additive Manufacturing),又稱3D列印(3D printing),可使用單一的高科技生產線來創造許多不同的產品項目,而不需要傳統大規模生產的設計限制和成本,伴隨未來高效能電腦和感測技術之進步,積層製造速度也會隨之加快。而智慧工廠(smart factories)將與物聯網(IOT)、雲端計算(cloud computing)、先進機器人(advanced robotics)、即時分析(real-time analytics)與機器學習(machine learning)等技術與積層製造技術結合,將大為提升生產速度及產量。
為加速及改善積層製造的製程,最重要的方法之一,是使用材料物理學的基本原理來模擬製造過程,而近期更引進跨學科之研究,「模擬」最終產品化學成分和機械性能的微觀結構。因積層製造是一個複雜又困難的過程,透過變化既有規則之模擬(Game-Changing simulations),若建立完成模型且模擬成功,將成為積層製造的殺手級技術。在未來的五到十年,我們將看到更多的零件從積層製造技術生產出來,而且這種技術有機會成為未來工廠的生產基礎。由於現行材料及製造流程與機器必須配合一致,些許的差異皆會生產出不同品質之產品,故未來積層製造工廠的結果穩定重現性(repeatability)和標準化(standardization),將是產品商業化的主要障礙與挑戰。
本文為「經濟部產業技術司科技專案成果」
英國隱私團體「隱私國際」( Privacy International ,以下簡稱: PI ),於日前向英國「資訊官長辦公室」提出控告( Information Commissioner's Office ,以下簡稱: ICO ),主張英國 eBay 提供的網路拍賣服務,阻撓使用者刪除註冊之個人資料,構成不公平之個人資料處理,違反英國資料保護法 (Data Protection Act) 。 由於 eBay 針對使用者資料之利用除一般註冊資料維護外,還有一個 VeRO 方案,參與此方案的使用者,其使用者 ID 、姓名、地址、電話號碼、電子郵件信箱以及公司名稱等基本資料將會在 eBay 自行判斷有必要用於調查詐欺、智慧財產權侵害或是其他非法活動時被公開,因此, PI 於聲明中主張,「刪除個人資料」功能與該網站之使用者之利益關聯甚鉅。 而「刪除帳號」項目已為多數網際網路服務所預設的帳號管理功能之一,經由 PI 人員實際使用 eBay 網站,窮盡各種搜尋方法,方於「帳戶資訊與付款」 (account information & billing) 項目找到關閉帳戶的選項, PI 指出,一般合理的使用者無法花費大量時間與方法搜尋網站各項功能, eBay 此一行為明顯是為了該公司之利益特意將該功能加以隱藏,以杜絕多數使用者對該項功能的利用,故向 ICO 提出控告。 PI 並指出,未來將對歐洲、美洲及亞洲各主要網站進行類似的調查。
AI 創作是否能獲得著作權?——Thaler 訴美國著作權局案解析AI 創作是否能獲得著作權?——Thaler 訴美國著作權局案解析 資訊工業策進會科技法律研究所 2025年04月16日 美國哥倫比亞特區聯邦上訴法院於2025年3月18日裁定Stephen Thaler博士與美國著作權局的上訴案,認為AI繪圖作品無法受著作權保護,因為AI並非自然人,無法成為作品作者或進行「職務上創作」。此判決再次確認了美國對AI創作無著作權保護的立場。[1] 壹、事件摘要 此案起源於2019年,Thaler博士為AI繪圖作品「A Recent Entrance to Paradise」向著作權局申請著作權登記,但因AI非自然人創作者,著作權局於2022年駁回申請。[2]Thaler博士認為,這違反憲法對創作的保護,並主張其研發之AI系統「Creativity Machine」為作者,而其本人則透過AI的「職務上創作」享有著作權。Thaler博士不服2023年聯邦地方法院判決而提起上訴。[3] 貳、重點說明 從美國哥倫比亞特區聯邦上訴法院之判決觀之,本案爭點在於: 一、AI是否符合著作權法「作者」之定義:即AI生成作品是否滿足「原創性」與「獨立創作」標準;美國著作權法是否允許非人類創作者擁有著作權? 二、AI作品歸屬問題:Thaler博士主張AI創作之著作權應歸屬於開發者,或透過「職務上創作」使其本人取得著作權。然自然人與AI間關係;是否適用於人類創作者與雇主間法律關係;AI是否能被視為僱員? 上訴法院認同著作權局於2023年3月16日發佈之《AI生成作品著作權登記指引》,該指引強調著作權目前僅保護自然人創作。AI獨立創作或主導作品表達情況無法獲得著作權保護,即使使用者透過指令或調整輸出,亦無法改變此原則。經審查,法院認為因著作權法規定涉及生命週期、由自然人將作品視為遺產繼承,與創作意圖等概念,顯示立法者設定作者應為自然人。本案係爭作品仍由AI獨立創作,Thaler博士僅在初始階段下達指令,故不符「原創性門檻」(Threshold of Originality)之標準。[4] 職務上創作方面,該適用於人類創作者與雇主之間的法律關係,而AI並非法律上自然人,故無法簽署雇傭合約成為員工。[5]綜上,Thaler博士無法透過以上方式取得作品著作權。法院支持著作權局之裁定與意見,認為無需討論至憲法層面問題,僅就目前著作權法是否涵蓋AI自主創作作品及足夠。 參、事件評析 我國智財局已於2023年6月16日發布函釋[6],說明生成式AI模型生成內容是否為獨立之著作而受著作權法保護,視有無「人類精神創作」決定,目前與美國立場相似。美國聯邦上訴法院此次判決,確認AI無法成為著作權的作者,著作權保護僅限於人類創作者。雖然此判決不影響人類使用AI創作,但未來若要改變本案不保護AI自主生成的純機器作品的立場,或許不會從著作權法著手,而是透過立法方式創設新的法律權利來應對。美國國會與著作權局仍在持續研究AI相關法律,如2024年4月美國眾議院司法委員會舉行聽證會[7],討論AI輔助創作與發明的智慧財產權問題,會上專家認為現行法律已涵蓋大部分AI相關議題,新增著作權法規可能增加複雜性並抑制創新。資策會科法所目前持續協助國科會、國發會、文化部等政府部會,觀測研析AI著作權國際法制發展,後續將針對AI在文化藝術運用的著作權等風險與因應提供創作人指引,並因應行政院發展我國主權AI的政策,研提資料取得困境的法制面解決建議。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Thaler v. Perlmutter, 23-5233, (D.C. Cir. 2025), https://law.justia.com/cases/federal/appellate-courts/cadc/23-5233/23-5233-2025-03-18.html (last visited Mar. 26, 2025) [2]Re: Second Request for Reconsideration for Refusal to Register A Recent Entrance to Paradise (Correspondence ID 1-3ZPC6C3; SR # 1-7100387071), U.S. Copyright Office Review Board,https://www.copyright.gov/rulings-filings/review-board/docs/a-recent-entrance-to-paradise.pdf(last visited Mar. 26, 2025) [3]US appeals court rejects copyrights for AI-generated art lacking 'human' creator, https://www.reuters.com/world/us/us-appeals-court-rejects-copyrights-ai-generated-art-lacking-human-creator-2025-03-18/?utm_source=chatgpt.com(last visited Mar. 26, 2025) [4]Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence, 88 Fed. Reg. 16,190, 16,192 (March 16, 2023), https://www.skadden.com/-/media/files/publications/2023/03/copyright-office-issues-guidance-on-ai-generated-works/formalguidance.pdf (last visited Mar. 26, 2025) [5]許慈真,美國聯邦地方法院判決Thaler v. Perlmutter : AI生成作品不受著作權保護,2023年9月20日,北美智權報,https://naipnews.naipo.com/9074 (最後點閱時間 : 2025年3月26日)。 [6]智財局函釋(2023年6月16日經授智字第11252800520號函),https://topic.tipo.gov.tw/copyright-tw/cp-407-855070-f1950-301.html (最後點閱時間 : 2025年3月26日)。 [7]HEARING BRIEF: Judiciary Subcommittee Hearing on Artificial Intelligence and Intellectual Property – IP Protection for AI-Assisted Inventions and Creative Works, April 10th, 2024, https://infojustice.org/archives/45692?utm_source=chatgpt.com (last visited Mar. 26, 2025)
科技產業申請租稅減免 國稅局:申報浮濫高科技企業申請促產條例相關租稅減免浮濫,尤其是在可享高額抵減的研發項目上,爭議最多。實務上,人才培育的投資抵減減稅空間較少,頂多幾十萬元或幾百萬元,但研發投資抵減最高可達幾十億元,因此常見的爭議也最多。由於研發費用可提列為費用、又可抵稅,對企業來說效益很高,因此很多公司都先申報為研發費用,等被國稅局查到再說;另將製造、銷售費用列為研發費用的情形不勝枚舉。 依照公司研究與發展及人才培訓支出適用投資抵減辦法審查要點第1點附表,研發支出只有包括全職研發人員薪資等九種支出才能抵減,而且業者須附薪資表及證明文件證明,才能減稅。但因為研發誘因優渥,企業總是先報再說,因此行政法院投資抵減的相關訴訟,十之八九都是國稅局勝訴。根據公司研究與發展及人才培訓支出適用投資抵減辦法第5條規定,公司的研發支出,在同一課稅年度內得按百分之三十抵減當年度應納營所稅額;支出總金額超過前二年度研發經費平均數者,超過部份得按百分之五十抵減當年度應納營所稅,當年度營所稅額不足抵減者,得在以後四年度營所稅額抵減。 國稅局提醒,申請研發減免企業必須提供研究計畫等證明,否則舉證不足反將被國稅局要求補稅,恐衝擊公司當年獲利。一般來說,適用投抵減稅金額愈高的公司,也愈常被選案查核,確保公司沒有僥倖逃稅心理。如果投抵項目涉及大陸地區,像是人才培訓支出,則應依臺灣地區與大陸地區人民關係條例第24、25、25條之1條等法令規定,經主管機關核准,否則也將遭國稅局剔除補稅。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。