El significado de la palabra

Encuentra el significado o la definición de una palabra en español


Definición para anatomia


anatomia
  • f. biol. y med. Ciencia que estudia la forma y estructura externa e interna de los seres vivos, y especialmente del cuerpo humano:
    anatomía humana, comparada.