El significado de la palabra

Encuentra el significado o la definición de una palabra en español


Definición para plastia


plastia.

1. f. Med. Operación quirúrgica con la cual se pretende restablecer, mejorar o embellecer la forma de una parte del cuerpo, o modificar favorablemente una alteración morbosa subyacente a ella.