
人形機器人的研發正快速發展。研究人員致力於實現自然的視覺交流,這將使人機互動更加生動、更具信任感。 EMO機器人正是為了應對這項挑戰而開發的。
該計畫由哥倫比亞大學胡宇涵和霍德·利普森教授指導開發。原型機由一個帶有柔性矽膠臉部皮膚的機器人頭部和其下方的26個微型馬達組成。這些微型馬達協同工作,可以產生面部表情和嘴唇運動。
在第一階段,機器人透過對著鏡子做出數千個隨機面部表情來學習自身。這樣,它將馬達的輸出與視覺結果聯繫起來,形成了一種名為「視覺到行動」的學習模型。隨後,EMO 分析了數小時人們在 YouTube 上說話和唱歌的影片。
透過結合這兩種方法,該系統學會了根據合成語音做出嘴唇動作。雖然機器人仍然難以辨識某些發音,但其準確度正在逐漸提高。