El significado de la palabra

Encuentra el significado o la definición de una palabra en español


Definición para naturismo


naturismo
  • m. Doctrina que preconiza el empleo de los agentes naturales para el tratamiento de las enfermedades:
    el naturismo es una filosofía de vida.
  • Desnudismo:
    en esta playa se puede practicar el naturismo.