本文為「經濟部產業技術司科技專案成果」
2009年5月,巴西、厄瓜多爾及巴拉圭於世界智慧財產權組織(The World Intellectual Property Organization,以下簡稱WIPO)之著作權及其相關權利常務理事會(Standing Committee on Copyright and Related Right, 以下簡稱SCCR)中,根據世界盲人聯盟(World Blind Union ,以下簡稱WBU)所草擬的一份關於「促進視障者(Visually Impaired Persons,以下簡稱VIPs)及閱讀障礙者接觸受著作權保護之資訊」國際性公約,內容為提出增訂著作權的限制及例外(limitations and exceptions)條款的相關主張,亦即針對視障者及閱讀障礙者放寬著作權合理使用範圍。 SCCR的會員,將就此草擬公約於2010年5月26日至28日進行協商討論,其協商結果亦將於日內瓦下一屆會議中提出討論。 另外,WIPO也透過網路開放之平台,開放各界參與本議題之討論(https://www3.wipo.int/forum/),該網路論壇將持續開放討論至2010年6月20日,並決定加快有利於視障者接觸資訊之相關問題。 目前全球有超過3億1千4百萬盲人或視障者,但目前於全球各地,供給視障者及閱讀障礙者閱讀或收聽資訊的工具很少,在多數國家中,尤其是發展中國家,此將影響其教育及就業機會,甚至使其更陷於弱勢地位。而為促進保障視障者及閱讀障礙者接觸資訊的權利,例如藉由點字書(Braille)、大字本(large print)等科技產品,俾利提供給視障者及閱讀障礙者閱讀或收聽的工具。但如何結合現代科技、增進其接取資訊的機會與放寬著作權相關規定;亦即如何讓著作權所有人的權利受到保護,以及有利於盲人或視障者接觸資訊,兩者間如何取得平衡,其著作權合理使用範圍是需要再思考的問題。
韓國未來創造科學部發表智慧資訊社會中長期計畫因應第四次產業革命2017年7月20日,韓國未來創造科學部發表智慧資訊社會中長期計畫(Mid- to Long-Term Master Plan in Preparation for the Intelligent Information Society)。為了因應第四次產業革命,韓國將面臨關鍵轉型,目標是成為智慧資訊社會,將人工智慧、物聯網(IoT)、雲端計算、大數據分析和移動平台,融入社會的各個面向。此外依據分析,至2030年智慧資訊社會的經濟價值估計將達到460萬億韓元,屆時絕大多數簡單重複的任務將自動化,進而消除大量的工作機會。但於此同時,也將在相關發展中的產業,創造新興就業空缺,如軟體工程和數據分析等。 韓國採取的相關措施,包括積極支持具前景的科技技術,培養創意人才、加強公私合作夥伴關係,實現韓國經濟、社會和其他有關制度所需的巨大轉型與變革。目標是在第四次產業革命中取得領導地位,為此制定智慧資訊社會中長期計畫,分為以下三大方向。 一、建構智慧IT的世界級基礎設施 發展並強化數據及網路的基礎設施,使其在全球市場上居於領導地位。 二、促進智慧IT在各產業的應用 將智慧IT技術活用於公共服務及私人部門,提高生產力、效率與國家競爭力。 三、積極改進並加強社會支援系統 透過教育改革、就業及福利服務等政策,包括培養創新人才,為社會結構改變及可能的負面衝擊作出準備,加強福利政策與社會安全網絡,以確保所有公民都能夠享受到智慧資訊社會的利益。
產業創新與管制革新-日本國家戰略特區制度等之啟示 美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。