El significado de la palabra

Encuentra el significado o la definición de una palabra en español


Definición para naturalismo


naturalismo
  • m. Doctrina filosófica que considera a la naturaleza y a todos sus elementos la única realidad existente.
  • Movimiento literario que surge en Francia en la segunda mitad del siglo xix y que,partiendo del realismo,trataba de reproducir la realidad objetivamente,especialmente los aspectos más desagradables.
  • Tendencia artística que representa la realidad alejándose del idealismo y del simbolismo.