ディープラーニングのCNNやRNN、BERTとは?

AIやディープラーニングについてい調べていると、CNNやRNN、LSTM、Attention、BERT、GPT-3などの言葉を目にすると思います。ディープラーニングをビジネスに活かそうとした時、これらの言葉の意味するものを具体的に知っておく必要があるのでしょうか?答えはNoです。これらは全て、ディープラーニングの内部構造の仕組みについての言葉です。ディープラーニング自体の仕組みを構築する専門家になる場合は、これらの内容については必須になりますが、ディープラーニングを活用してビジネスに役立つ何かを作り上げたい場合には、これらの詳細を知らなくても大丈夫です。ディープラーニングとは、入力データに対して、ディープラーニングのモデルが認識結果や予測結果を出力します。例えば、画像の場合は、自動運転を例に取ると、車の前方のカメラの画像を入力すると、目の前に信号機があるのかないのか、その色は何色なのか、人はいるのかいないのか、画像データから認識した結果を出力します。そのディープラーニングのモデルの構造がCNNだったりする訳です。ただ極端にいうと画像認識はCNNである必要はありません。他の構造でも認識は可能です。CNNという構造を使うと画像の認識精度が高いね、というだけの話です。人間の脳のシナプス構造もそうかもしれません。数学に強い人はもしかしたら、元々数学を解くのに最適な構造のシナプスだったのかもしれません。しかし、そうでないシナプス構造の人でも数学は解くことが出来ます。ディープラーニング自体の研究においては、このディープラーニング自体の内部構造で、より良いものがないのか、どうすればもっと精度が上がるのかという研究がされています。しかし、ディープラーニングをビジネスで活用する立場からすると、解決したい課題に対して、その時点で最適な構造を活用すればよいのであり、必要なのは内部構造の詳細というよりは、ディープラーニングというものの本質を抽象的にまずは理解する事だと思います。

よかったらシェアしてね!

この記事を書いた人

目次
閉じる