
【記者蔡富丞/柯妮妮 綜合報導】影音AI的發展正出現一項關鍵轉變:從依賴龐大資料與高算力,轉向「自我精簡學習」。近期受到關注的Video Distillation(影片蒸餾)框架,讓大型模型能將知識壓縮並傳遞給小型模型,顯著降低訓練與部署成本。

這項技術的核心,在於由一個高性能「教師模型」先學習完整影片資料,再將關鍵資訊轉移給較小的「學生模型」,使後者在較低資源下仍能維持接近原本的生成與理解能力。
過去影音模型訓練成本高昂,不僅需要大量資料,也仰賴高效能運算設備,導致許多企業難以導入。透過蒸餾框架,模型規模可以有效縮小,讓影音AI更容易部署於不同平台,包括行動裝置與邊緣設備。
此外,這類技術也讓模型更新更具彈性。企業可快速訓練新模型並進行版本迭代,而不必重新建立完整系統,提升開發效率。
整體而言,影音AI正從「追求最大模型」轉向「效率與可用性」。當模型能自我精簡並維持效能,未來影音平台的競爭將更著重於部署速度與應用普及,而非單純算力優勢。

