SNSの画像をAI自動判別、自社製品と「何が一緒に写っているのか」分析

ディープラーニングなどを用いた画像解析の進化によって、従来では調査が困難であったり、コストがかかり過ぎるといったことも比較的簡単にできるようになってきました。今回はSNSの画像を使って製品の消費シーンを自動で調査・分類するという株式会社ブレインパッドの取り組みを紹介します。

課題

従来、自社の製品がいつ、どこで、誰と、どのように利用・消費されているかということはインタビューやインターネットの書き込みなどを調査するというような方法が取られてきました。しかしこれらの方法は手間やコストがかかるという問題がありました。

解決方法

今回の取り組みでは、SNS上から特定ブランドのドリンクの映った約10万枚の画像を収集し、一緒に撮影されている物体、背景、人物の表情などから、そのシチュエーションや、一緒に消費されている食料品などを解析しました。

SNSからの画像収集にはブレインパッドの製品であるソーシャルデータ分析サービス「Crimson Hexagon ForSight™ Platform(クリムゾンヘキサゴン・フォーサイト・プラットフォーム)」を使用、画像の認識にはGoogle Cloud Vision API、分析やレポートにはRやPython、Excelといったツールと共起ネットワークや階層クラスタリングなどの手法を使用しています。

どうなったか

画像引用元:ブレインパッド、SNSの投稿画像をAIで解析し、ドリンクの消費シーンを分析

これにより、どのような生活シーンで飲まれていることが多いのか可視化したり、季節の行事ごとの消費傾向の違いなどが解析できたとのことです。

まとめ

製品の消費シチュエーションをSNSの画像のAI分析によって得るという取り組みを紹介しました。

これまでもGoogle Cloud Vision APIを使う取り組みはありましたが、特定物体の検知や分類ではなく、自社製品と何が一緒に映っているかという視点はユニークです。また、こういった製品の市場調査は定期的にそれなりの予算をかけて人海戦術で行うものというイメージがありましたが、ソーシャル分析のサービスと組み合わせることで常に最新のデータをブランド側がつかめるようになっている点もこれまでのものにない新しいもので、ブランド側には強力な武器になる可能性を感じました。

もちろんブランド側の販売機会増加に活用されるだけでなく、PLUS社のユーザー調査で、家庭でのハサミの利用状況を2000人以上調べたら薄い紙を切る機会はわずか8%だったので厚紙やビニールを切りやすい製品を開発した(参考)というような、良い改善も生まれやすくなりそうです。

参考資料

(Marvin編集部)