本研究では、ロボット腕の制御に筋電図(EMG)データと音声入力を組み合わせたマルチモーダルデータフュージョンを提案している。
まず、EMGデータを取得するMYOアームバンドと音声入力を使って、ロボット腕の5つのジェスチャー(握り拳、左手振り、右手振り、指開き、ダブルタップ)を認識する。その際、機械学習アルゴリズムを活用して、ジェスチャーの認識精度を高めている。
次に、EMGデータと音声入力を融合することで、ジェスチャーの誤認識を補正し、ロボット腕の制御精度を向上させている。優先順位はEMGデータに置かれ、音声入力はEMGデータの誤認識を補完する役割を果たす。
実験の結果、EMGデータと音声入力を融合することで、ロボット腕の制御精度が大幅に向上し、エラー率が5.2%まで低減された。一方で、MYOアームバンドの限られたジェスチャー認識機能や、非ネイティブスピーカーの音声認識精度の低さなどの課題も明らかになった。
今後の展望として、自然言語処理を活用し、より複雑な音声コマンドにも対応できるシステムの開発が期待される。
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Tauheed Khan... klokken arxiv.org 04-25-2024
https://arxiv.org/pdf/2404.15283.pdfDypere Spørsmål