はじめに
今回はコサイン類似度とは一体なんなのかについてみていきたいと思います。
いつもと少しテイストが違って数学チックですがお付き合いください。
早速みていきましょう。
なにに使えるか
まず定義をみるよりも先に、これが何に使えるかをみた方がモチベーションもアップすると思い先に書いてしまいます。
コサイン類似度はベクトル間の向きの近さを示す指標として良く使われ、AIの世界でもベクトル同士がどの程度近くにあるのか調べたいことが多々あるので用いられています。
ただ内容的には高校数学なのでとても簡単です。
内積について
まずは2次元ベクトル , の内積は以下の式で定義されています。
言葉にして表すと「ベクトルの長さと、ベクトルのベクトル と同じ向きの成分の長さをかけたもの」です。
これのどこがベクトル間の向きの近さを示すかというと、θ
と内積の関係が以下のようになっています。
θの値 | ベクトルとの関係 | 内積の値 |
---|---|---|
0° | 向きが完全に一致 | 最大値 |
90° | 直行している | 0 |
180° | 逆向き | 最小値 |
2つの2次元ベクトルを以下の成分で表し、式変形をするとこんな形にすることができます。
コサイン類似度
この公式をn次元に拡張したものがコサイン類似度です。
もし50次元みたいな世界があったとして、実際にベクトルがどんな形をしているかは想像することもできませんが、が求められるのだけは確かです。
この式により求めたが1に近ければ2つのn次元ベクトルは向きが近いということが分かります。
さいごに
最初にコサイン類似度の公式だけをみるとギクっとしますが、内積の変形・拡張したものだと思えばそれほど難しくはない気がします。
もし機械学習などに興味がある方は覚えておくと良いかもしれませんね。
ではまた。