Alexa、Googleアシスタント、Siri、Cortanaなど、テクノロジー業界で大きな存在感を見せる音声インターフェイスは、コンピューティングの未来にとって大きな役割を果たすことが期待されています。
しかし、音声言語を使ってコミュニケーションをしない人にとって、この技術は果たしてどれくらい便利なのでしょうか。その一つの答えとして、「スーパーマリオブラザーズ」や「ストリートファイターII」をARで再現したゲームデモを多数公開している個人デベロッパーのアビシェーク・シン氏が、Alexaを手話で操作するMODを開発中です。
(Video:YouTube/Abhishek Singh)
シン氏は、動画の中で、手話認識システムがどのように動作するかを実演しています。 Amazon Echoはノートパソコンに接続され、PCのカメラがシン氏の手話を認識し、テキストに変換されAlexaとのやり取りが可能になっています。
シン氏によると、このプロダクトは最近の音声アシスタントの流行に触発された「思考実験」で、今後音声アシスタントがさらに普及していけば、聞いたり話したりすることができない人たちがどのように使用するのかを考えなければならないとの発想から生まれたとのことです。
実際のMOD自体は、GoogleのTensorFlowソフトウェア、特にTensorFlow.jsの助けを借りて作られたもので、ユーザーがJavaScriptで機械学習アプリケーションをコーディングすることができます。 他のマシンビジョンソフトウェアと同様に、シン氏は訓練データを与えて視覚信号を理解するプログラムをセットする必要がありました。彼はオンラインで手話のためのデータセットを見つけることができず、代わりに自作の基本的なジェスチャーセットを入力しました。
今回のデモは現時点ではジェスチャーでAlexaを操作する概念の証明に過ぎず、動画で示されている以外のことはまだできないとのことです。しかし、語彙を追加することは比較的容易で、シン氏はコードをオープンソース化し、開発者のためにブログ記事で解説するようです。
偶然なのか、米Amazonは7月23日、Alexaのアップデートをリリースし、スクリーン搭載のEchoデバイスを持つユーザーが音声コマンドを使用せずにタッチ操作でアシスタントと対話できる新機能を公開しました。
これは、Amazonが少なくとも音声アシスタントのアクセシビリティを多様化させる方法を検討し始めており、手話を認識することが次のステップになるかもしれません。
シン氏のデモが示すように、これは確かに技術的に可能です。近い将来、どのような形であれ、同様の機能が音声アシスタントに追加されているかもしれません。