英國最新 AI 著作權報告出爐:AI 訓練不得「先用再說」,台灣業者要注意的 3 個風險

英國最新 AI 著作權報告出爐:AI 訓練不得「先用再說」,台灣業者要注意的 3 個風險

最後更新時間:2026年4月21日

2026年3月英國最新 AI 著作權報告發布

你現在用的 AI 工具,有沒有偷偷拿別人的作品訓練?一旦國外平台被告,你的公司可能也會被捲進來。
2026 年 3 月,英國正式發布《關於著作權和人工智慧的報告》,明講「AI 訓練不能再用例外條款當擋箭牌」。
這份報告不只影響英國產業,也會成為台灣未來修法、法院判決的重要參考方向。

AI 數位分身,為什麼變成法律地雷?

現在的生成式 AI,已經可以幾分鐘內做出「某個人說話、唱歌、演戲」的數位分身。
對影音創作者、行銷團隊來說,這看起來是夢幻工具,但法律風險不小:

  • 用 AI 做出知名藝人代言影片,可能構成深偽 (Deepfake) 與人格權侵害。

  • 一般民眾、素人,被冒用聲音或臉孔時,要主張權利反而更困難。

  • 現行表演者權多綁在「既有錄音錄影」上,對「完全 AI 生成」的表演,保護力很薄弱。

英國做了哪兩件「重手」的事?

英國這次報告,有兩個對 AI 平台和內容產業影響最大的方向:

  1. 拒絕「訓練例外」:

    • AI 開發商不能再用「例外豁免條款」硬說自己有權拿作品訓練。

    • 想用受著作權保護的內容訓練模型,就必須先談授權、付費,不能先抓再說。

  2. 不再保護「完全由 AI 生成」的作品:

    • 報告建議移除對「完全由 AI 生成作品」的著作權保護,強調保護的核心是「人類的創造力」。

    • 只要作品缺乏實質人類創作貢獻,就不應該給著作權。

安全港條款失靈之後,平台與權利人會發生什麼事?

過去:

  • 平台常用「安全港條款」主張:只要有基本管理措施,就不用為用戶上傳的侵權內容負責。
  • 權利人往往連作品被拿去訓練都不知道,要蒐證本來就很困難。

可能的未來發展:

  • AI 平台如果沒有取得授權,就不能再輕易主張安全港,責任會往開發商與營運者身上集中。

  • 權利人不必再花大量成本去追「你到底有沒有用我的作品訓練」,授權談判位置會變強。

  • 目前雖然還沒有重量級判決,但可以預期未來會有指標性案件,成為全球實務參考。

台灣現在怎麼看 AI 訓練與生成內容?

在台灣,目前還是回到《著作權法》來處理 AI 訓練與生成內容。
法院與智慧財產局,大致從兩個時間點來判斷是否侵權:

  • AI 訓練階段:大量抓取文章、圖片、音樂做訓練,會先看有沒有合理使用的空間。

  • AI 生成階段:產出的圖片、文章,是否「實質重製」特定作品、是否具有人類創作貢獻。
    至於著作權到底歸誰,目前實務上多認為:

  • 著作必須出自「自然人」的精神創作,才有著作權保護。

  • 如果只是輸入簡單指令,讓 AI 全自動生成結果,通常不會被認定有著作權。

例如:你打一句「幫我畫一幅有貓、有咖啡、有夕陽的插畫」,AI 自動生成圖片。
在目前台灣實務上,這張圖多半不會被當作你個人的著作來保護,因為缺乏足夠的人類創作貢獻。

給台灣企業的三個提醒

如果你是內容平台、AI 新創或大量使用生成式 AI 的企業,可以先檢查三件事:

  1. 你現在用的 AI 模型,訓練資料來源是否透明?有沒有授權機制?

  2. 你的服務條款,有沒有清楚告知用戶:他們上傳的內容會不會被拿去訓練?

  3. 團隊在製作廣告、短影片或形象素材時,有沒有使用疑似數位分身、Deepfake 的內容?
    這些都會是未來幾年智財爭議的高風險區域。
    如果你想預先調整內部流程、授權條款或合約,我們也可以協助一起盤點目前做法,避免之後踩到國際趨勢的紅線。

常見問題FAQ

需要評估,不能因為是「公開在網路上」就假設免授權。
英國最新報告明確反對以「例外豁免」來掩護訓練行為,強調使用受著作權保護的作品進行 AI 訓練,原則上要取得授權並支付報酬。
台灣目前仍回到《著作權法》與合理使用判斷,但在國際趨勢收緊的情況下,只靠「大家都這樣抓資料」已經越來越站不住腳。

還是會,風險主要出現在「生成內容怎麼用」。
就算訓練階段是由國外平台負責,使用者在商業專案中大量採用生成圖片、文章或影音,如果內容「實質重製」特定作品,仍可能構成侵權。
建議至少針對重要輸出結果,建立內部審查機制,避免直接用在廣告、官網、簡報或對外合約附件。

在英國報告的建議裡,「完全由 AI 生成」的內容不應享有著作權保護,保護重點回到人類創造力。
台灣目前實務也多認為,著作權法保護的是自然人的精神創作,若只是輸入簡單指令讓 AI 自動跑出結果,通常不會被認定有著作權。
企業若想保留權利,應讓創作者在指令設計、構圖、改寫與後製上有實質貢獻,並清楚記錄流程與角色分工。

安全港條款原本是為了避免平台替所有用戶行為負責,只要盡到一定的管理義務,就能減輕責任。
英國報告指出,在 AI 訓練情境下,若讓平台繼續大量依賴安全港條款,權利人往往甚至不知道自己的作品被用來訓練,無法有效維護權益。
這也是為什麼報告提出「拒絕例外豁免」,要求 AI 開發商回到授權原則,直接面對權利人。

不用等到修法才開始動,現在就可以盤點至少三件事:
一是釐清自己用的 AI 工具與模型,其訓練資料來源、授權狀態與服務條款;二是調整內部規範,標示哪些場景可以用生成內容、哪些必須人工檢查或改寫;三是在對外合約中加入 AI 使用與著作權分配條款,避免日後發生爭議時沒有依據。
英國的政策方向與報告內容,很可能成為未來各國實務的重要參考,越早調整,未來風險成本就越低。

如果你正在導入或評估 AI 工具,卻不確定現行做法在著作權上是否安全,歡迎透過下方「聯絡我們」表單,簡單描述你的產業與狀況,我們會由專人與你聯繫,一起盤點風險與可能的調整方向。

源道專利商標事務所創辦人廖光陽