生成式人工智能(AIGC)的迅速崛起正在重塑創意產業的格局。然而,這些技術的應用同時也帶來了一系列版權和法律挑戰,特別是在確定創作者身份和保護內容原創性方面。隨著技術不斷演進,各界對於如何在鼓勵創新和保護版權之間取得平衡的討論愈加熱烈。本文將繼續探討AIGC對版權的影響,並分享有效的風險管理策略,以助力在這一新興領域中的持續發展。
生成式人工智能(AIGC)的快速發展正在改變創意產業的面貌,然而其帶來的版權問題同樣引人關注。傳統版權法主要針對人類創作者,而AI生成內容的創作者身份問題則頗為複雜,涉及模型訓練者、操作員甚至AI本身的角色認定。此外,AI生成內容的原創性和可能的侵權風險,也讓法律挑戰日益增多。國際合作正逐步被視為解決AIGC版權問題的關鍵途徑,各國法律和政策的差異需要更為統一的標準來調和。例如,世界知識產權組織(WIPO)已經開始探討AI生成內容的版權保護問題,並試圖制定國際標準來調和不同國家之間的法律差異。
使用AIGC平台生成內容時,應進行全面的版權清查,以確保訓練數據集不包含未經授權的受保護作品。例如,Adobe 已表示,他們僅使用授權數據來訓練其生成式AI模型。對於生成的內容,使用者應獲得必要的版權授權,以避免潛在的法律糾紛。
使用公共領域或創作共用授權:利用公共領域或創作共用(Creative Commons)授權的素材進行AI訓練,可以有效降低版權風險。這不僅在法律上安全,還有助於促進開放知識和資源的使用。
AI模型的透明度:開發者應公開AI模型的訓練過程和數據來源,增加透明度,以減少版權爭議和增強對AI生成內容的信任。2022年,OpenAI等公司已開始增加透明度,說明其數據來源的多樣性和訓練過程。Adobe亦強調只有提交到 Adobe Stock 市場的作品(作者可以opt-out)才會用於訓練,並不會掃描本地儲存的內容,以緩解用戶對於創意作品可能被用於訓練 AI 的擔憂。
設置版權標記和內容檢測機制:開發AI工具時,應考慮加入版權標記功能,讓創作者標記其作品,並通過內容檢測系統自動檢查潛在的版權侵權行為。
版權教育與意識提升:對於使用AIGC的企業和個人,應進行版權法和相關法律知識的培訓,以確保他們了解版權保護的基本原則和潛在風險。自2019年以來,多個國際會議和法律研討會強調了在AI開發者和使用者中普及版權知識的重要性。
採用水印和標記技術:為了保護AI生成的內容,可以在圖像、文本或音頻中加入數字水印或版權標記,這有助於追蹤和識別作品的原始來源。2022年,Adobe推出了一種基於AI的內容認證工具,可以嵌入和驗證數字版權信息。上一篇文章也提到內地已經早在前年年底對此有所規定。
法規和政策的制定:政府和相關機構應考慮針對AIGC的特定法律框架,明確界定AI生成作品的版權歸屬和使用權限,確保在技術發展和版權保護之間保持平衡。
跨平台合作與標準制定:不同的AIGC平台應加強合作,共同制定行業標準,確保在使用數據集訓練模型時遵循版權法規,並共享最佳實踐以減少版權糾紛。
AIGC技術的應用既為創意產業帶來了巨大的機遇,也帶來了複雜的法律挑戰。在這一背景下,如何在技術創新和版權保護之間取得平衡,成為各界共同關注的問題。未來,通過積極的風險管理和法律制度的完善,我們有望看到一個更為健康和可持續的AIGC發展生態。
撰文:陳迪源
香港創科發展協會創會主席、自由黨中央委員