日本マイクロソフト、スマホ向けのAI「りんな」を発表
「共感視覚モデル」の搭載により、自然な会話が可能に
日本マイクロソフトは、2018年11月5日、ソーシャルAIチャットボット「りんな」に「共感視覚モデル」を搭載したスマホ向けAI「りんな」を発表しました。
スマホ向けAI「りんな」は、現在提供しているソーシャルAIチャットボットAI「りんな」に、最新の画像認識エンジン「共感視覚モデル(Empathy Vision model)」を採用したものです。共感視覚とは、AIが見た風景やものなどについて、その名称や形、色などの「認識結果」を回答するのではなく、その風景やものを見た「感想」を述べることを指します。
従来の画像認識技術に「感情と共感」を与えることで、見たものについて「認識結果」だけを伝えるのではなく、リアルタイムで感情のこもったコメントを生成し、ユーザーと音声による自然な会話が可能になります。
例えば、従来のAIとスマホ向けAI「りんな」が、以下の画像にそれぞれコメントした場合、次のような違いがあるとのこと。
従来のAIの場合:「人です。子供です。犬です。車です」
共感視覚モデル(りんな)の場合:「わぁすてきな家族。お休みかなー。あ、車が動きそう!気を付けて」
マイクロソフトは、「りんな」が、ユーザーと同じ目線で世界を見て、コミュニケーションすることで、AIと人間がより自然な形でやりとりする世界に近づくものと考えています。
スマホ向けAI「りんな」には、マイクロソフトの研究開発部門マイクロソフトリサーチによる最新の画像処理、自然言語処理、音声認識および音声合成技術が採用されています。
なお、同社によると、スマホ向けAI「りんな」は現在開発中で、一般公開時期は未定だとしています。