本发明提供一种结合生理模型和数据驱动模型的三维发音器官动画方法,涉及计算机图形学、智能人机交互等技术领域,该方法能够产生高真实感的发音器官动画,该方法有如下特性:(1)利用了发音器官的生理模型和运动机理,从而可以模拟发音器官的稠密运动和发音器官之间的碰撞挤压等复杂运动,使得发音器官动画更具真实感;(2)采集丰富的包含各种协同发音现象的语料库,并同步地利用EMA传感器记录下三维发音器官上特征点的运动轨迹,接着通过训练上述数据集来建立能够描述连续语音中发音器官动态变化特性的、与发音过程协调一致的隐马尔可夫模型,从而使得发音器官动画与发音过程协调一致的同时,能够充分描述连续语音中的可视化协同发音现象。