焦點

Adobe 擴展智能標籤功能 升級用戶原創內容影片檢索

Adobe 將 Adobe Experience Manager內現有的圖片智能標籤功能 (Smart Tag) 擴展至用戶原創內容 (User-Generated Content) 影片中。新功能可自動閱讀並辨認影片內物品,協助市場營銷人員搜尋及篩選影片,無需逐一瀏覽社交媒體帖文。

用戶原創內容可減少內容營銷 (Content marketing) 成本、提高市場營銷活動成效,以及解決現今營銷人員面對的大規模製作難題。運用用戶原創內容,是品牌應對現今市場內容和個人化需求日益增加的關鍵。用戶原創內容不但具有高成本效益,亦更為真實及表現更佳。據 Adweek 資料顯示,64% 社交媒體用戶會在購物前觀看用戶原創內容影片,而且用戶原創內容影片的觀看次數較品牌影片高 10 倍。

利用人工智能尋找最適合的用戶原創內容

Adobe致力開發計算機視覺技術 (Computer Vision),協助自動化處理以往需由人手閱覽的用戶原創內容的過程。Adobe Sensei 推動的智能標籤可自動閱讀圖像並找出關鍵物品、物品類型,以及其藝術特性等,用作建立描述性標籤 (Tag),讓市場營銷人員能篩走含有不符合搜尋要求的圖像內容。

雖然使用智能標籤處理圖像十分有效,影片卻是現今在網絡上最受歡迎的媒體類型。據 Cisco 估計,在 2021 年,影片將會佔整個互聯網 82% 的流量,而過去一年在 Instagram 發布的影片數量已增長4倍。影片較圖像更大型、更具即時性,使影片分析遠較圖像更難分類、篩選及取用。

Adobe Experience Manager 中的影片智能標籤

Adobe Experience Manager 中的 Adobe Sensei 的自動影片標籤 (Video Auto Tag) 服務可以為 60 秒鐘以內的影片產生兩套標籤。第一套標籤是關於影片內物品、場景及影片的特徵,第二套則描繪影片中的動作。這些標籤可用於改良影片搜尋及取用,讓營銷人員可以篩去不符合搜尋要求的內容。

除物品、場景及特徵外,自動影片標籤功能亦可辨認暫時發生變化的事件,包括影片內的動作或活動,如「喝水」和「跳躍」。這一功能是透過自動影片標籤功能預測動作來實現的。這需要利用一整套涵蓋大量動作的影片,配以 Adobe 內部影片數據庫的用戶數據所產生的動作標籤訓練而成。動作自動標籤可跨越影片中的多個畫面,聚集各時間段的結果後,產生一套影片動作標籤集。

Belkin、Linksys、Wemo 及 Phyn展出最新裝置互連及家庭互連產品
佳節臨近 十二個你要知道的網絡安全提示