![見出し画像](https://assets.st-note.com/production/uploads/images/121015403/rectangle_large_type_2_25bd959d16f297a6960732bfb7b8ff49.png?width=1200)
プロフィール画像をFERで感情分析してみた
以前の記事で、プロフィール画像を同一人物かどうか判定したら面白いかも、と書きました。
AIで実物の写真と比べて同一人物かどうかの判定をやってみるのも面白いかもしれません。
そういえば、FERで写真の感情分析をしたことがあったので、そっちをやってみようと思います。
参考にしたのはこちらのページです。
環境はGoogle Colaboratoryを使いました。
手順
ファイルをアップロードする。
左カラムの「セッションストレージにアップロードする」をクリックします。
![](https://assets.st-note.com/img/1699189517470-4vunv74EPJ.png)
警告が出ますが、「OK」をクリックします。
![](https://assets.st-note.com/img/1699189862753-6BbGdTaZ7m.png)
画像(kiwa.jpg)がアップロードされました。
![](https://assets.st-note.com/img/1699189966898-XuZ5RKFKMe.png)
パスは/content/kiwa.jpgです。
今回は気にしなくてもいいですが。
コーディング
FERをインストールします。
pip install FER
感情分析を行います。
ファイル名はkiwa.jpgです。
from fer import FER
import matplotlib.pyplot as plt
test_image_one = plt.imread("kiwa.jpg")
emo_detector = FER(mtcnn = True)
captured_emotion = emo_detector.detect_emotions(test_image_one)
print(captured_emotion)
実行結果は・・・
[{'box': [398, 165, 238, 319], 'emotions': {'angry': 0.0, 'disgust': 0.0, 'fear': 0.0, 'happy': 0.9, 'sad': 0.0, 'surprise': 0.0, 'neutral': 0.09}}]
happyが0.9ならばっちりですね。
ちなみに、自分がアコーディオンを弾いている写真を分析してみたら
[{'box': [187, 44, 97, 109], 'emotions': {'angry': 0.15, 'disgust': 0.0, 'fear': 0.12, 'happy': 0.13, 'sad': 0.12, 'surprise': 0.02, 'neutral': 0.45}}]
[{'box': [92, 16, 33, 41], 'emotions': {'angry': 0.02, 'disgust': 0.0, 'fear': 0.01, 'happy': 0.58, 'sad': 0.08, 'surprise': 0.01, 'neutral': 0.3}}]
なんか微妙・・・。
しばらくこの画像のままでいくと思います。
![](https://assets.st-note.com/img/1699304157902-x0nWwg33Wz.jpg?width=1200)