El significado de la palabra

Encuentra el significado o la definición de una palabra en español


Definición para dermis


dermis
  • f. Capa intermedia de la piel de los vertebrados situada bajo la epidermis y sobre la hipodermis:
    las quemaduras afectaron gravemente la dermis.
    ♦ No varía en pl.