El significado de la palabra

Encuentra el significado o la definición de una palabra en español


Definición para dermatologia


dermatología </h
  • f. Rama de la medicina que se ocupa de las enfermedades de la piel:
    remitieron su caso de alergia a la consulta de dermatología.